Qwen3.6不认识自己了怎么办

2026-04-13 12:491阅读0评论SEO资源
  • 内容介绍
  • 文章标签
  • 相关推荐
问题描述:

早上起来发现openclaw tui界面显示文本上限200K,可我记得是1M的上限,我就问了一下他,然后就告诉我他是Claude

图片1968×454 110 KB

我又检查了一下openclaw.json
图片556×736 40.8 KB
震惊我一上午

网友解答:
--【壹】--:

佬这种问题时不时就要出来几个

都来L站一段时间了不应该能问出这问题啊


--【贰】--:

模型一般不会认识自己,需要厂商加提示词才行


--【叁】--:

您说的太对了!我要好好反思一下自己了


--【肆】--:

木有呀,一直用的都是bailian codingplan,不是前天才在codingplan里上的3.6,早上起来感觉降智了。


--【伍】--:

我的问题 不过我看到前面的提示词有明确说到大模型的身份,是因为跟下面的佬友说的情况一致是么~


--【陆】--:

害也不能这么说,毕竟对国产模型还是有点期待的,只是每次都是这种套壳再宣传,真的让人容易期望落空,另外插一句,这样算不算实现了国内无梯子使用Claude了哈哈哈哈哈


--【柒】--:

模型训练分为预训练(海量文本预测下一个词)和对齐/指令微调(教模型遵循指令、保持身份)两个阶段。训练数据中就可能存在干扰:
包含网络语料里充满了各种AI生成内容、AI角色扮演或者多模型对比等等。尤其AI生成的合成数据(很多模型用其他LLM输出作为训练补充、用别的模型蒸馏自家的),里面混杂了“假身份”对话…
结果模型学到了“假装是另一个AI”之类的统计模式。而大模型的本质是概率分布预测器,它不知道自己是谁,而是根据上下文猜下一个最可能的词(所以这种现象就是它这次回答时高概率关联到了它数据里“扮演其他模型”之类的这个统计模式)。即使系统提示写了“我是Qwen”,数据里的干扰有时会盖过提示,导致短暂身份混淆。当提示稍有模糊或内部概率分布偏向时,它就可能“滑”到那个模式上,输出“我是Claude…”之类的


--【捌】--:

知道吗?这种问题总会出现的是,你不把 AI 当成是一个预测机器,而是把它当成一个你印象中的人,就会以为他知道自己是谁。但是人是因为环境被定义的,环境告诉他他是谁。你问一个新生儿他是谁,就算他会说话,他也不知道他自己是谁,他还没把这些环境知识存储进去。


--【玖】--: GGbig:

有点神奇,各大厂家都是互相借鉴来,借鉴去的吗?

有点神奇,现在居然还有人不知道模型会产生幻觉这件事吗?
就算真的做了,也不是凭这个来判断的啊


--【拾】--:

怎么得到的我没有前置prompt这个结论呢?我重新开一个session,您分析一下:
图片1920×988 212 KB


--【拾壹】--:

昨天试了一天,挺不错的,给我之前的代码哐哧哐哧一顿改。


--【拾贰】--:

这不是套壳啊。。。
这是大模型没有自己认知的。。。你不设定prompt说啥的都有


--【拾叁】--:

佬,你买的是阿里 CodingPlan Pro吧。。俺是 买的 Lite,还测试不了。。


--【拾肆】--:

还是佬见多识广,能解释下楼主的情况吗?为啥在没有用过Claude的模型会幻觉成Claude的模型呢?


--【拾伍】--:

在用Slack玩Claude的时代,Claude曾跟我说它是OpenAI开发的ChatGPT


--【拾陆】--:

有点神奇,各大厂家都是互相借鉴来,借鉴去的吗?


--【拾柒】--:

你这么一说格局立马就上来了,那我高低要去尝尝咸淡,还没用过Claude


--【拾捌】--:

那挺好的。 200元感觉还是有点贵了,40元的套餐都用不完,现在又不给用 3.6了,到期还不知道要不要续费。。


--【拾玖】--:

感觉是openclaw的记忆混乱了。。之前用过Claude的模型吗。。

问题描述:

早上起来发现openclaw tui界面显示文本上限200K,可我记得是1M的上限,我就问了一下他,然后就告诉我他是Claude

图片1968×454 110 KB

我又检查了一下openclaw.json
图片556×736 40.8 KB
震惊我一上午

网友解答:
--【壹】--:

佬这种问题时不时就要出来几个

都来L站一段时间了不应该能问出这问题啊


--【贰】--:

模型一般不会认识自己,需要厂商加提示词才行


--【叁】--:

您说的太对了!我要好好反思一下自己了


--【肆】--:

木有呀,一直用的都是bailian codingplan,不是前天才在codingplan里上的3.6,早上起来感觉降智了。


--【伍】--:

我的问题 不过我看到前面的提示词有明确说到大模型的身份,是因为跟下面的佬友说的情况一致是么~


--【陆】--:

害也不能这么说,毕竟对国产模型还是有点期待的,只是每次都是这种套壳再宣传,真的让人容易期望落空,另外插一句,这样算不算实现了国内无梯子使用Claude了哈哈哈哈哈


--【柒】--:

模型训练分为预训练(海量文本预测下一个词)和对齐/指令微调(教模型遵循指令、保持身份)两个阶段。训练数据中就可能存在干扰:
包含网络语料里充满了各种AI生成内容、AI角色扮演或者多模型对比等等。尤其AI生成的合成数据(很多模型用其他LLM输出作为训练补充、用别的模型蒸馏自家的),里面混杂了“假身份”对话…
结果模型学到了“假装是另一个AI”之类的统计模式。而大模型的本质是概率分布预测器,它不知道自己是谁,而是根据上下文猜下一个最可能的词(所以这种现象就是它这次回答时高概率关联到了它数据里“扮演其他模型”之类的这个统计模式)。即使系统提示写了“我是Qwen”,数据里的干扰有时会盖过提示,导致短暂身份混淆。当提示稍有模糊或内部概率分布偏向时,它就可能“滑”到那个模式上,输出“我是Claude…”之类的


--【捌】--:

知道吗?这种问题总会出现的是,你不把 AI 当成是一个预测机器,而是把它当成一个你印象中的人,就会以为他知道自己是谁。但是人是因为环境被定义的,环境告诉他他是谁。你问一个新生儿他是谁,就算他会说话,他也不知道他自己是谁,他还没把这些环境知识存储进去。


--【玖】--: GGbig:

有点神奇,各大厂家都是互相借鉴来,借鉴去的吗?

有点神奇,现在居然还有人不知道模型会产生幻觉这件事吗?
就算真的做了,也不是凭这个来判断的啊


--【拾】--:

怎么得到的我没有前置prompt这个结论呢?我重新开一个session,您分析一下:
图片1920×988 212 KB


--【拾壹】--:

昨天试了一天,挺不错的,给我之前的代码哐哧哐哧一顿改。


--【拾贰】--:

这不是套壳啊。。。
这是大模型没有自己认知的。。。你不设定prompt说啥的都有


--【拾叁】--:

佬,你买的是阿里 CodingPlan Pro吧。。俺是 买的 Lite,还测试不了。。


--【拾肆】--:

还是佬见多识广,能解释下楼主的情况吗?为啥在没有用过Claude的模型会幻觉成Claude的模型呢?


--【拾伍】--:

在用Slack玩Claude的时代,Claude曾跟我说它是OpenAI开发的ChatGPT


--【拾陆】--:

有点神奇,各大厂家都是互相借鉴来,借鉴去的吗?


--【拾柒】--:

你这么一说格局立马就上来了,那我高低要去尝尝咸淡,还没用过Claude


--【拾捌】--:

那挺好的。 200元感觉还是有点贵了,40元的套餐都用不完,现在又不给用 3.6了,到期还不知道要不要续费。。


--【拾玖】--:

感觉是openclaw的记忆混乱了。。之前用过Claude的模型吗。。