Codex这个压缩失败太折磨人了

2026-04-29 08:282阅读0评论SEO问题
  • 内容介绍
  • 文章标签
  • 相关推荐
问题描述:

image1166×1326 43.3 KB

网友解答:
--【壹】--:

这个感觉像是官方的问题 我现在是这么解决的
config.toml里面 provider name改成非OpenAI 这样不会触发openai远端压缩 而是走response的压缩
代价是压缩不如原版


--【贰】--:

遇到同样的问题很久了,github上看有人提issue,但一直没被解决,很神秘


--【叁】--:

可以,改下面这三个地方

model_provider = "OpenAI" [model_providers] [model_providers.OpenAI] name = "OpenAI"


--【肆】--:

codex 的gpt 5.5好像现在只支持400k,api才是1m


--【伍】--:

老哥,我想请问:如果用cpa的情况下触发openai远端压缩,有机会可以做到吗


--【陆】--:

可以试试cli,cli里压缩我没碰到过任何问题


--【柒】--:

请问佬友,这样改了之后压缩效果和速度会更好么
我是cpa套了一层newapi


--【捌】--:

请问您是官方下载的codex cli+官方订阅+普通的魔法是吗,有什么别的特殊配置吗?


--【玖】--:

是cpa吗?如果是cpa我今天看到说和本地和远程压缩没啥区别不知道是不是真的


--【拾】--:

用codex的话,这块上下文压缩好慢,感觉这块好差


--【拾壹】--:

我没有改上下文,还是用的官方的配置,258k上下文。模型是gpt5.5-xhigh。目前一到压缩就会失败,且重试若干次无效。
上网查看一些近期帖子后,尝试切换模型再手动compact,仍然常常失败。目前发现切到5.2-low能够有概率成功,成功后再切回5.5继续。代价是需要花费10-30分钟反复尝试,并且成功后遗忘严重。


--【拾贰】--:

有用吗,我也老是出现这个问题,每天被恶心坏了


--【拾叁】--:

用codex cli,不会出现这个问题
应该是5.5出来后,桌面版的codex压缩功能还没完善


--【拾肆】--:

这个不是远程压缩的吗?还会出现压缩失败的现象吗


--【拾伍】--:

反代出来用claude code吧, 没有出现过压缩失败的的情况, 都是gpt5.4


--【拾陆】--:

你这不是因为改模型导致的上下文爆炸了吗 。只有gpt5.4和5.5支持1m上下文。切换到其他模型后会直接出错因为超出上下文了


--【拾柒】--:

在上下文耗尽之前自己/new
唉 习惯让他把计划/文档落到磁盘吧 有问题这就是上下文


--【拾捌】--:

看不懂,实际上只需要改 name 而已

[model_providers.???] name = "OpenAI"


--【拾玖】--:

改成别的使用本地压缩,不知道压缩效果怎么样

问题描述:

image1166×1326 43.3 KB

网友解答:
--【壹】--:

这个感觉像是官方的问题 我现在是这么解决的
config.toml里面 provider name改成非OpenAI 这样不会触发openai远端压缩 而是走response的压缩
代价是压缩不如原版


--【贰】--:

遇到同样的问题很久了,github上看有人提issue,但一直没被解决,很神秘


--【叁】--:

可以,改下面这三个地方

model_provider = "OpenAI" [model_providers] [model_providers.OpenAI] name = "OpenAI"


--【肆】--:

codex 的gpt 5.5好像现在只支持400k,api才是1m


--【伍】--:

老哥,我想请问:如果用cpa的情况下触发openai远端压缩,有机会可以做到吗


--【陆】--:

可以试试cli,cli里压缩我没碰到过任何问题


--【柒】--:

请问佬友,这样改了之后压缩效果和速度会更好么
我是cpa套了一层newapi


--【捌】--:

请问您是官方下载的codex cli+官方订阅+普通的魔法是吗,有什么别的特殊配置吗?


--【玖】--:

是cpa吗?如果是cpa我今天看到说和本地和远程压缩没啥区别不知道是不是真的


--【拾】--:

用codex的话,这块上下文压缩好慢,感觉这块好差


--【拾壹】--:

我没有改上下文,还是用的官方的配置,258k上下文。模型是gpt5.5-xhigh。目前一到压缩就会失败,且重试若干次无效。
上网查看一些近期帖子后,尝试切换模型再手动compact,仍然常常失败。目前发现切到5.2-low能够有概率成功,成功后再切回5.5继续。代价是需要花费10-30分钟反复尝试,并且成功后遗忘严重。


--【拾贰】--:

有用吗,我也老是出现这个问题,每天被恶心坏了


--【拾叁】--:

用codex cli,不会出现这个问题
应该是5.5出来后,桌面版的codex压缩功能还没完善


--【拾肆】--:

这个不是远程压缩的吗?还会出现压缩失败的现象吗


--【拾伍】--:

反代出来用claude code吧, 没有出现过压缩失败的的情况, 都是gpt5.4


--【拾陆】--:

你这不是因为改模型导致的上下文爆炸了吗 。只有gpt5.4和5.5支持1m上下文。切换到其他模型后会直接出错因为超出上下文了


--【拾柒】--:

在上下文耗尽之前自己/new
唉 习惯让他把计划/文档落到磁盘吧 有问题这就是上下文


--【拾捌】--:

看不懂,实际上只需要改 name 而已

[model_providers.???] name = "OpenAI"


--【拾玖】--:

改成别的使用本地压缩,不知道压缩效果怎么样