Claude Code 是不是会偷偷给国产模型降智
- 内容介绍
- 文章标签
- 相关推荐
最近几个月都在用droid,昨天又用回Claude Code开发项目试试,接的是智谱官方的GLM-5.1,主观感觉是不如以前强了,不知道是不是错觉。听说是CC最近加了很多新功能,但是国产模型没适配,就会降低国产模型的能力
有人说源码泄露了,要降智早就发现了。我觉得这是想太简单了。往提示词里塞几个看似正常的单词,实际会误导非Claude模型判断,这是完全有可能的。举个例子,随便找的
反蒸馏
在 Claude Code 源码里有一个 ANTI_DISTILLATION_CC 标志,开启后 Claude Code 在向服务端发请求时会带上 anti_distillation: ['fake_tools'],也就是告诉服务端:
在系统提示词里偷偷插入一些“假的工具定义”。
还有这里,作者是非常较真才找到原因,实际这种情况根本查不出原因,真的写过agent应该知道在说什么
https://www.zhihu.com/question/2022392127145911515/answer/2023437849303815119
--【壹】--:
那就回退老版本cc试试?
--【贰】--:
智谱现在限购,高峰期就算了,怎么还会发狂,是基模的问题吗
--【叁】--:
自己有空可以做个对比,又不是只有cc能用国模,基础能力摆在那里,工具就算有问题,也不是根因
--【肆】--:
好离谱,这么看那种严格把关语料库的大模型会好很多
--【伍】--:
好奇为什么是声明可以删除,而不是主动去问可不可以转载
--【陆】--:
你的意思是因为泄露,所以不可能偷偷降智?我特地去找了下,cc会有很多这种小功能,这种信息如果掺到国产模型的请求里,是不是有降智的可能性。正是因为前几天看到这种东西,才发的这贴。
反蒸馏
在 Claude Code 源码里有一个 ANTI_DISTILLATION_CC 标志,开启后 Claude Code 在向服务端发请求时会带上 anti_distillation: ['fake_tools'],也就是告诉服务端:
在系统提示词里偷偷插入一些“假的工具定义”。
--【柒】--:
接国产模型走的不是Claude的服务器,就算接到啥请求头也没用,防小人不防君子
--【捌】--:
A\ 的企业文化,真有可能……
--【玖】--:
降智不会降缓存好像会
--【拾】--:
国产模型无论如何蒸馏,号称平替甚至超越opus,都是昙花一现,因为都基于过去时间点的数据。只要cc出新功能。国产模型当时当刻都要歇菜。过一段时间,比如下一个模型..glm-5.2就会好些
--【拾壹】--:
今天看智谱群里有人的glm跟发了疯一样,疯狂输出乱码
--【拾贰】--:
那好吧,我就直接删掉吧
--【拾叁】--:
源码都泄漏了,要是有早就被爆出了,不知道说有偷偷降智的人在想啥
--【拾肆】--:
应该是缓存问题
--【拾伍】--:
感觉cc没必要特地这么做吧,图什么呢?
--【拾陆】--:
会故意破坏缓存
--【拾柒】--: ageg:
anti_distillation
是的
6.3内容策略违规
防线1-Anti-Distillation:
API请求中包含anti_distillation: [“fake_tools”] ,检测是否有⼈⽤Claude Code输出训练竞争模型。
--【拾捌】--:
模型问题吧
--【拾玖】--:
不知道为什么,一看我就觉得像是A能干出来的事(可能是我格局太低了,不过我觉得A也真没必要)
最近几个月都在用droid,昨天又用回Claude Code开发项目试试,接的是智谱官方的GLM-5.1,主观感觉是不如以前强了,不知道是不是错觉。听说是CC最近加了很多新功能,但是国产模型没适配,就会降低国产模型的能力
有人说源码泄露了,要降智早就发现了。我觉得这是想太简单了。往提示词里塞几个看似正常的单词,实际会误导非Claude模型判断,这是完全有可能的。举个例子,随便找的
反蒸馏
在 Claude Code 源码里有一个 ANTI_DISTILLATION_CC 标志,开启后 Claude Code 在向服务端发请求时会带上 anti_distillation: ['fake_tools'],也就是告诉服务端:
在系统提示词里偷偷插入一些“假的工具定义”。
还有这里,作者是非常较真才找到原因,实际这种情况根本查不出原因,真的写过agent应该知道在说什么
https://www.zhihu.com/question/2022392127145911515/answer/2023437849303815119
--【壹】--:
那就回退老版本cc试试?
--【贰】--:
智谱现在限购,高峰期就算了,怎么还会发狂,是基模的问题吗
--【叁】--:
自己有空可以做个对比,又不是只有cc能用国模,基础能力摆在那里,工具就算有问题,也不是根因
--【肆】--:
好离谱,这么看那种严格把关语料库的大模型会好很多
--【伍】--:
好奇为什么是声明可以删除,而不是主动去问可不可以转载
--【陆】--:
你的意思是因为泄露,所以不可能偷偷降智?我特地去找了下,cc会有很多这种小功能,这种信息如果掺到国产模型的请求里,是不是有降智的可能性。正是因为前几天看到这种东西,才发的这贴。
反蒸馏
在 Claude Code 源码里有一个 ANTI_DISTILLATION_CC 标志,开启后 Claude Code 在向服务端发请求时会带上 anti_distillation: ['fake_tools'],也就是告诉服务端:
在系统提示词里偷偷插入一些“假的工具定义”。
--【柒】--:
接国产模型走的不是Claude的服务器,就算接到啥请求头也没用,防小人不防君子
--【捌】--:
A\ 的企业文化,真有可能……
--【玖】--:
降智不会降缓存好像会
--【拾】--:
国产模型无论如何蒸馏,号称平替甚至超越opus,都是昙花一现,因为都基于过去时间点的数据。只要cc出新功能。国产模型当时当刻都要歇菜。过一段时间,比如下一个模型..glm-5.2就会好些
--【拾壹】--:
今天看智谱群里有人的glm跟发了疯一样,疯狂输出乱码
--【拾贰】--:
那好吧,我就直接删掉吧
--【拾叁】--:
源码都泄漏了,要是有早就被爆出了,不知道说有偷偷降智的人在想啥
--【拾肆】--:
应该是缓存问题
--【拾伍】--:
感觉cc没必要特地这么做吧,图什么呢?
--【拾陆】--:
会故意破坏缓存
--【拾柒】--: ageg:
anti_distillation
是的
6.3内容策略违规
防线1-Anti-Distillation:
API请求中包含anti_distillation: [“fake_tools”] ,检测是否有⼈⽤Claude Code输出训练竞争模型。
--【拾捌】--:
模型问题吧
--【拾玖】--:
不知道为什么,一看我就觉得像是A能干出来的事(可能是我格局太低了,不过我觉得A也真没必要)

