Qwen3.6不认识自己了怎么办
- 内容介绍
- 文章标签
- 相关推荐
早上起来发现openclaw tui界面显示文本上限200K,可我记得是1M的上限,我就问了一下他,然后就告诉我他是Claude
图片1968×454 110 KB
我又检查了一下openclaw.json
图片556×736 40.8 KB
震惊我一上午
--【壹】--:
佬这种问题时不时就要出来几个
都来L站一段时间了不应该能问出这问题啊
--【贰】--:
模型一般不会认识自己,需要厂商加提示词才行
--【叁】--:
您说的太对了!我要好好反思一下自己了
--【肆】--:
木有呀,一直用的都是bailian codingplan,不是前天才在codingplan里上的3.6,早上起来感觉降智了。
--【伍】--:
我的问题 不过我看到前面的提示词有明确说到大模型的身份,是因为跟下面的佬友说的情况一致是么~
--【陆】--:
害也不能这么说,毕竟对国产模型还是有点期待的,只是每次都是这种套壳再宣传,真的让人容易期望落空,另外插一句,这样算不算实现了国内无梯子使用Claude了哈哈哈哈哈
--【柒】--:
模型训练分为预训练(海量文本预测下一个词)和对齐/指令微调(教模型遵循指令、保持身份)两个阶段。训练数据中就可能存在干扰:
包含网络语料里充满了各种AI生成内容、AI角色扮演或者多模型对比等等。尤其AI生成的合成数据(很多模型用其他LLM输出作为训练补充、用别的模型蒸馏自家的),里面混杂了“假身份”对话…
结果模型学到了“假装是另一个AI”之类的统计模式。而大模型的本质是概率分布预测器,它不知道自己是谁,而是根据上下文猜下一个最可能的词(所以这种现象就是它这次回答时高概率关联到了它数据里“扮演其他模型”之类的这个统计模式)。即使系统提示写了“我是Qwen”,数据里的干扰有时会盖过提示,导致短暂身份混淆。
早上起来发现openclaw tui界面显示文本上限200K,可我记得是1M的上限,我就问了一下他,然后就告诉我他是Claude
图片1968×454 110 KB
我又检查了一下openclaw.json
图片556×736 40.8 KB
震惊我一上午
--【壹】--:
佬这种问题时不时就要出来几个
都来L站一段时间了不应该能问出这问题啊
--【贰】--:
模型一般不会认识自己,需要厂商加提示词才行
--【叁】--:
您说的太对了!我要好好反思一下自己了
--【肆】--:
木有呀,一直用的都是bailian codingplan,不是前天才在codingplan里上的3.6,早上起来感觉降智了。
--【伍】--:
我的问题 不过我看到前面的提示词有明确说到大模型的身份,是因为跟下面的佬友说的情况一致是么~
--【陆】--:
害也不能这么说,毕竟对国产模型还是有点期待的,只是每次都是这种套壳再宣传,真的让人容易期望落空,另外插一句,这样算不算实现了国内无梯子使用Claude了哈哈哈哈哈
--【柒】--:
模型训练分为预训练(海量文本预测下一个词)和对齐/指令微调(教模型遵循指令、保持身份)两个阶段。训练数据中就可能存在干扰:
包含网络语料里充满了各种AI生成内容、AI角色扮演或者多模型对比等等。尤其AI生成的合成数据(很多模型用其他LLM输出作为训练补充、用别的模型蒸馏自家的),里面混杂了“假身份”对话…
结果模型学到了“假装是另一个AI”之类的统计模式。而大模型的本质是概率分布预测器,它不知道自己是谁,而是根据上下文猜下一个最可能的词(所以这种现象就是它这次回答时高概率关联到了它数据里“扮演其他模型”之类的这个统计模式)。即使系统提示写了“我是Qwen”,数据里的干扰有时会盖过提示,导致短暂身份混淆。

