Qwen3.6不认识自己了怎么办

2026-04-13 12:490阅读0评论SEO资源
  • 内容介绍
  • 文章标签
  • 相关推荐
问题描述:

早上起来发现openclaw tui界面显示文本上限200K,可我记得是1M的上限,我就问了一下他,然后就告诉我他是Claude

图片1968×454 110 KB

我又检查了一下openclaw.json
图片556×736 40.8 KB
震惊我一上午

网友解答:
--【壹】--:

佬这种问题时不时就要出来几个

都来L站一段时间了不应该能问出这问题啊


--【贰】--:

模型一般不会认识自己,需要厂商加提示词才行


--【叁】--:

您说的太对了!我要好好反思一下自己了


--【肆】--:

木有呀,一直用的都是bailian codingplan,不是前天才在codingplan里上的3.6,早上起来感觉降智了。


--【伍】--:

我的问题 不过我看到前面的提示词有明确说到大模型的身份,是因为跟下面的佬友说的情况一致是么~


--【陆】--:

害也不能这么说,毕竟对国产模型还是有点期待的,只是每次都是这种套壳再宣传,真的让人容易期望落空,另外插一句,这样算不算实现了国内无梯子使用Claude了哈哈哈哈哈


--【柒】--:

模型训练分为预训练(海量文本预测下一个词)和对齐/指令微调(教模型遵循指令、保持身份)两个阶段。训练数据中就可能存在干扰:
包含网络语料里充满了各种AI生成内容、AI角色扮演或者多模型对比等等。尤其AI生成的合成数据(很多模型用其他LLM输出作为训练补充、用别的模型蒸馏自家的),里面混杂了“假身份”对话…
结果模型学到了“假装是另一个AI”之类的统计模式。而大模型的本质是概率分布预测器,它不知道自己是谁,而是根据上下文猜下一个最可能的词(所以这种现象就是它这次回答时高概率关联到了它数据里“扮演其他模型”之类的这个统计模式)。即使系统提示写了“我是Qwen”,数据里的干扰有时会盖过提示,导致短暂身份混淆。

阅读全文
问题描述:

早上起来发现openclaw tui界面显示文本上限200K,可我记得是1M的上限,我就问了一下他,然后就告诉我他是Claude

图片1968×454 110 KB

我又检查了一下openclaw.json
图片556×736 40.8 KB
震惊我一上午

网友解答:
--【壹】--:

佬这种问题时不时就要出来几个

都来L站一段时间了不应该能问出这问题啊


--【贰】--:

模型一般不会认识自己,需要厂商加提示词才行


--【叁】--:

您说的太对了!我要好好反思一下自己了


--【肆】--:

木有呀,一直用的都是bailian codingplan,不是前天才在codingplan里上的3.6,早上起来感觉降智了。


--【伍】--:

我的问题 不过我看到前面的提示词有明确说到大模型的身份,是因为跟下面的佬友说的情况一致是么~


--【陆】--:

害也不能这么说,毕竟对国产模型还是有点期待的,只是每次都是这种套壳再宣传,真的让人容易期望落空,另外插一句,这样算不算实现了国内无梯子使用Claude了哈哈哈哈哈


--【柒】--:

模型训练分为预训练(海量文本预测下一个词)和对齐/指令微调(教模型遵循指令、保持身份)两个阶段。训练数据中就可能存在干扰:
包含网络语料里充满了各种AI生成内容、AI角色扮演或者多模型对比等等。尤其AI生成的合成数据(很多模型用其他LLM输出作为训练补充、用别的模型蒸馏自家的),里面混杂了“假身份”对话…
结果模型学到了“假装是另一个AI”之类的统计模式。而大模型的本质是概率分布预测器,它不知道自己是谁,而是根据上下文猜下一个最可能的词(所以这种现象就是它这次回答时高概率关联到了它数据里“扮演其他模型”之类的这个统计模式)。即使系统提示写了“我是Qwen”,数据里的干扰有时会盖过提示,导致短暂身份混淆。

阅读全文