CC的源码公布后,有大佬开发针对国产模型的优化版么?不能自动压缩上下文太痛苦

2026-04-11 12:471阅读0评论SEO资讯
  • 内容介绍
  • 文章标签
  • 相关推荐
问题描述:

ClaudeCode在某个版本后,用国产模型API就不能自动压缩上下文了。
必须随时盯着上下文窗口手动/compact
整个过程非常痛苦,对于toolsearch也是,国产模型不太支持

现在源码泄露后,理论上有办法解决这个问题咯
想请问下各位,有没有大佬开发过呀?求指路

此外,有没有平行版本的?
例如配置文件完全和原版claudecode独立的(不适用.claude作为配置文夹)的版本?
这样就可以原版Claude用官方oauth登录
平行版用三方API双开互不干扰了

网友解答:
--【壹】--:

有可能,新版现在好像默认就是1M上下文..而且用过GLM的session换opus还会报thinkingk块的type不合法,导致无法继续通过OPUS对话.得把session的文本处理下才能继续用

各种不兼容啊


--【贰】--:

那两个国产厂商懒的一批 , 千问还改了个自己的cli


--【叁】--:

说wong就是举个例子。其实百炼的usage就是不太对的,遇到工具调用就开始token数字乱跳,之前还会直接跳成0,这两天好点了。


--【肆】--:

对话不能混用渠道的,思考内容有签名,换了渠道就对不上了


--【伍】--:

glm是吧 不关那个还报错


--【陆】--:

是不是因为默认上下文改成 1M 的事?
设置环境变量 CLAUDE_CODE_AUTO_COMPACT_WINDOW=200000 限制上下文窗口大小, 这个会不会有效?


--【柒】--:

所以说这个应该国产模型自己开发自己的cli去自动适配自己模型最好


--【捌】--:

用的智谱的GLM CODING的官方API…公益站反而兼容性极好


--【玖】--:

现在没哪家正经站点 说支持CC还发不对的usage了吧

wong不是公益站来的吗


--【拾】--: 家反:

API Error: 400 {“type”:“error”,“error”:{“type”:“invalid_request_error”,“message”:“messages.3.content.0: Invalid signature in thinking
block”},“request_id”:“req_011CZWoPyXrb2E4oiujF1u9C”}

不能穿插混血


--【拾壹】--:

哦智谱官方那个版本老掉牙了,也不知道为什么他们不升级,好像文档里还写了只能用很老的版本


--【拾贰】--:

国产模型想要得到优化,至少要先脱离 CC


--【拾叁】--:

没听说过谁家不能触发自动压缩
这特喵是客户端功能
跟上游有个蛋关系


--【拾肆】--:

等下,你说的不自动压缩,不会是你用了新版本默认的1m上下文吧?


--【拾伍】--:

不能的截图呢 总有报错吧
别对不知道现象根因的事自行总结结论

家反:

例如配置文件完全和原版claudecode独立的(不适用.claude作为配置文夹)的版本?

就像这个问题 早哪年就有正确的使用方法了
《 Claude Code 终极版 FAQ 指南 》
Any牌路由器使用清障!


--【拾陆】--:

自动压缩应该需要返回正确的usage才能用,像wong站刚开的时候就是不支持的吧,过了一段时间才支持的。现在也有很多国模的API返回的usage不正确。


--【拾柒】--:

GLM5不行了


--【拾捌】--:

GLM5对话后的SESSION直接换MAX账号继续对话后的报错是
API Error: 400 {“type”:“error”,“error”:{“type”:“invalid_request_error”,“message”:“messages.3.content.0: Invalid signature in thinking
block”},“request_id”:“req_011CZWoPyXrb2E4oiujF1u9C”}
最后去手动清除这部分的.jsonl内的thinking block后,就可以用MAX号的OPUS继续对话了…

感觉这个是一个兼容性问题.
似乎不能开always_thinking,开了对话几轮就得报错
“alwaysThinkingEnabled”: true,
“attribution”: {
“commit”: “”,
“pr”: “”
},
“autoUpdatesChannel”: “latest”,
“cleanupPeriodDays”: 720,
“effortLevel”: “high”,
“env”: {
“ANTHROPIC_AUTH_TOKEN”: “PROXY_MANAGED”,
“ANTHROPIC_BASE_URL”: “http://127.0.0.1:15721”,
“CLAUDE_CODE_ATTRIBUTION_HEADER”: “0”,
“CLAUDE_CODE_DISABLE_NONESSENTIAL_TRAFFIC”: “1”,
“DISABLE_AUTOUPDATER”: “1”,
“DISABLE_INSTALLATION_CHECKS”: “1”,
“ENABLE_TOOL_SEARCH”: “1”
},
“includeCoAuthoredBy”: false,
“model”: “glm-5.1”,
“skipDangerousModePermissionPrompt”: true
}

压缩的我估计是新版默认1MB的原因,对话的过程中会提示超限,然后就完蛋.只有rewind后先手动compact再继续
image1568×546 149 KB


--【拾玖】--:

百炼的coding plan是可以自动压缩的,Tool Search也支持,某些模型厂商自己不更新吧,连Tool Search都不支持

问题描述:

ClaudeCode在某个版本后,用国产模型API就不能自动压缩上下文了。
必须随时盯着上下文窗口手动/compact
整个过程非常痛苦,对于toolsearch也是,国产模型不太支持

现在源码泄露后,理论上有办法解决这个问题咯
想请问下各位,有没有大佬开发过呀?求指路

此外,有没有平行版本的?
例如配置文件完全和原版claudecode独立的(不适用.claude作为配置文夹)的版本?
这样就可以原版Claude用官方oauth登录
平行版用三方API双开互不干扰了

网友解答:
--【壹】--:

有可能,新版现在好像默认就是1M上下文..而且用过GLM的session换opus还会报thinkingk块的type不合法,导致无法继续通过OPUS对话.得把session的文本处理下才能继续用

各种不兼容啊


--【贰】--:

那两个国产厂商懒的一批 , 千问还改了个自己的cli


--【叁】--:

说wong就是举个例子。其实百炼的usage就是不太对的,遇到工具调用就开始token数字乱跳,之前还会直接跳成0,这两天好点了。


--【肆】--:

对话不能混用渠道的,思考内容有签名,换了渠道就对不上了


--【伍】--:

glm是吧 不关那个还报错


--【陆】--:

是不是因为默认上下文改成 1M 的事?
设置环境变量 CLAUDE_CODE_AUTO_COMPACT_WINDOW=200000 限制上下文窗口大小, 这个会不会有效?


--【柒】--:

所以说这个应该国产模型自己开发自己的cli去自动适配自己模型最好


--【捌】--:

用的智谱的GLM CODING的官方API…公益站反而兼容性极好


--【玖】--:

现在没哪家正经站点 说支持CC还发不对的usage了吧

wong不是公益站来的吗


--【拾】--: 家反:

API Error: 400 {“type”:“error”,“error”:{“type”:“invalid_request_error”,“message”:“messages.3.content.0: Invalid signature in thinking
block”},“request_id”:“req_011CZWoPyXrb2E4oiujF1u9C”}

不能穿插混血


--【拾壹】--:

哦智谱官方那个版本老掉牙了,也不知道为什么他们不升级,好像文档里还写了只能用很老的版本


--【拾贰】--:

国产模型想要得到优化,至少要先脱离 CC


--【拾叁】--:

没听说过谁家不能触发自动压缩
这特喵是客户端功能
跟上游有个蛋关系


--【拾肆】--:

等下,你说的不自动压缩,不会是你用了新版本默认的1m上下文吧?


--【拾伍】--:

不能的截图呢 总有报错吧
别对不知道现象根因的事自行总结结论

家反:

例如配置文件完全和原版claudecode独立的(不适用.claude作为配置文夹)的版本?

就像这个问题 早哪年就有正确的使用方法了
《 Claude Code 终极版 FAQ 指南 》
Any牌路由器使用清障!


--【拾陆】--:

自动压缩应该需要返回正确的usage才能用,像wong站刚开的时候就是不支持的吧,过了一段时间才支持的。现在也有很多国模的API返回的usage不正确。


--【拾柒】--:

GLM5不行了


--【拾捌】--:

GLM5对话后的SESSION直接换MAX账号继续对话后的报错是
API Error: 400 {“type”:“error”,“error”:{“type”:“invalid_request_error”,“message”:“messages.3.content.0: Invalid signature in thinking
block”},“request_id”:“req_011CZWoPyXrb2E4oiujF1u9C”}
最后去手动清除这部分的.jsonl内的thinking block后,就可以用MAX号的OPUS继续对话了…

感觉这个是一个兼容性问题.
似乎不能开always_thinking,开了对话几轮就得报错
“alwaysThinkingEnabled”: true,
“attribution”: {
“commit”: “”,
“pr”: “”
},
“autoUpdatesChannel”: “latest”,
“cleanupPeriodDays”: 720,
“effortLevel”: “high”,
“env”: {
“ANTHROPIC_AUTH_TOKEN”: “PROXY_MANAGED”,
“ANTHROPIC_BASE_URL”: “http://127.0.0.1:15721”,
“CLAUDE_CODE_ATTRIBUTION_HEADER”: “0”,
“CLAUDE_CODE_DISABLE_NONESSENTIAL_TRAFFIC”: “1”,
“DISABLE_AUTOUPDATER”: “1”,
“DISABLE_INSTALLATION_CHECKS”: “1”,
“ENABLE_TOOL_SEARCH”: “1”
},
“includeCoAuthoredBy”: false,
“model”: “glm-5.1”,
“skipDangerousModePermissionPrompt”: true
}

压缩的我估计是新版默认1MB的原因,对话的过程中会提示超限,然后就完蛋.只有rewind后先手动compact再继续
image1568×546 149 KB


--【拾玖】--:

百炼的coding plan是可以自动压缩的,Tool Search也支持,某些模型厂商自己不更新吧,连Tool Search都不支持