Codex这个压缩失败太折磨人了
- 内容介绍
- 文章标签
- 相关推荐
image1166×1326 43.3 KB
网友解答:--【壹】--:
这个感觉像是官方的问题 我现在是这么解决的
config.toml里面 provider name改成非OpenAI 这样不会触发openai远端压缩 而是走response的压缩
代价是压缩不如原版
--【贰】--:
遇到同样的问题很久了,github上看有人提issue,但一直没被解决,很神秘
--【叁】--:
可以,改下面这三个地方
model_provider = "OpenAI"
[model_providers]
[model_providers.OpenAI]
name = "OpenAI"
--【肆】--:
codex 的gpt 5.5好像现在只支持400k,api才是1m
--【伍】--:
老哥,我想请问:如果用cpa的情况下触发openai远端压缩,有机会可以做到吗
--【陆】--:
可以试试cli,cli里压缩我没碰到过任何问题
--【柒】--:
请问佬友,这样改了之后压缩效果和速度会更好么
我是cpa套了一层newapi
--【捌】--:
请问您是官方下载的codex cli+官方订阅+普通的魔法是吗,有什么别的特殊配置吗?
--【玖】--:
是cpa吗?如果是cpa我今天看到说和本地和远程压缩没啥区别不知道是不是真的
--【拾】--:
用codex的话,这块上下文压缩好慢,感觉这块好差
--【拾壹】--:
我没有改上下文,还是用的官方的配置,258k上下文。模型是gpt5.5-xhigh。目前一到压缩就会失败,且重试若干次无效。
上网查看一些近期帖子后,尝试切换模型再手动compact,仍然常常失败。目前发现切到5.2-low能够有概率成功,成功后再切回5.5继续。代价是需要花费10-30分钟反复尝试,并且成功后遗忘严重。
--【拾贰】--:
有用吗,我也老是出现这个问题,每天被恶心坏了
--【拾叁】--:
用codex cli,不会出现这个问题
应该是5.5出来后,桌面版的codex压缩功能还没完善
--【拾肆】--:
这个不是远程压缩的吗?还会出现压缩失败的现象吗
--【拾伍】--:
反代出来用claude code吧, 没有出现过压缩失败的的情况, 都是gpt5.4
--【拾陆】--:
你这不是因为改模型导致的上下文爆炸了吗 。只有gpt5.4和5.5支持1m上下文。切换到其他模型后会直接出错因为超出上下文了
--【拾柒】--:
在上下文耗尽之前自己/new
唉 习惯让他把计划/文档落到磁盘吧 有问题这就是上下文
--【拾捌】--:
看不懂,实际上只需要改 name 而已
[model_providers.???]
name = "OpenAI"
--【拾玖】--:
改成别的使用本地压缩,不知道压缩效果怎么样
image1166×1326 43.3 KB
网友解答:--【壹】--:
这个感觉像是官方的问题 我现在是这么解决的
config.toml里面 provider name改成非OpenAI 这样不会触发openai远端压缩 而是走response的压缩
代价是压缩不如原版
--【贰】--:
遇到同样的问题很久了,github上看有人提issue,但一直没被解决,很神秘
--【叁】--:
可以,改下面这三个地方
model_provider = "OpenAI"
[model_providers]
[model_providers.OpenAI]
name = "OpenAI"
--【肆】--:
codex 的gpt 5.5好像现在只支持400k,api才是1m
--【伍】--:
老哥,我想请问:如果用cpa的情况下触发openai远端压缩,有机会可以做到吗
--【陆】--:
可以试试cli,cli里压缩我没碰到过任何问题
--【柒】--:
请问佬友,这样改了之后压缩效果和速度会更好么
我是cpa套了一层newapi
--【捌】--:
请问您是官方下载的codex cli+官方订阅+普通的魔法是吗,有什么别的特殊配置吗?
--【玖】--:
是cpa吗?如果是cpa我今天看到说和本地和远程压缩没啥区别不知道是不是真的
--【拾】--:
用codex的话,这块上下文压缩好慢,感觉这块好差
--【拾壹】--:
我没有改上下文,还是用的官方的配置,258k上下文。模型是gpt5.5-xhigh。目前一到压缩就会失败,且重试若干次无效。
上网查看一些近期帖子后,尝试切换模型再手动compact,仍然常常失败。目前发现切到5.2-low能够有概率成功,成功后再切回5.5继续。代价是需要花费10-30分钟反复尝试,并且成功后遗忘严重。
--【拾贰】--:
有用吗,我也老是出现这个问题,每天被恶心坏了
--【拾叁】--:
用codex cli,不会出现这个问题
应该是5.5出来后,桌面版的codex压缩功能还没完善
--【拾肆】--:
这个不是远程压缩的吗?还会出现压缩失败的现象吗
--【拾伍】--:
反代出来用claude code吧, 没有出现过压缩失败的的情况, 都是gpt5.4
--【拾陆】--:
你这不是因为改模型导致的上下文爆炸了吗 。只有gpt5.4和5.5支持1m上下文。切换到其他模型后会直接出错因为超出上下文了
--【拾柒】--:
在上下文耗尽之前自己/new
唉 习惯让他把计划/文档落到磁盘吧 有问题这就是上下文
--【拾捌】--:
看不懂,实际上只需要改 name 而已
[model_providers.???]
name = "OpenAI"
--【拾玖】--:
改成别的使用本地压缩,不知道压缩效果怎么样

