Codex这个压缩失败太折磨人了

2026-04-29 08:281阅读0评论SEO问题
  • 内容介绍
  • 文章标签
  • 相关推荐
问题描述:

image1166×1326 43.3 KB

网友解答:
--【壹】--:

这个感觉像是官方的问题 我现在是这么解决的
config.toml里面 provider name改成非OpenAI 这样不会触发openai远端压缩 而是走response的压缩
代价是压缩不如原版


--【贰】--:

遇到同样的问题很久了,github上看有人提issue,但一直没被解决,很神秘


--【叁】--:

可以,改下面这三个地方

model_provider = "OpenAI" [model_providers] [model_providers.OpenAI] name = "OpenAI"


--【肆】--:

codex 的gpt 5.5好像现在只支持400k,api才是1m


--【伍】--:

老哥,我想请问:如果用cpa的情况下触发openai远端压缩,有机会可以做到吗


--【陆】--:

可以试试cli,cli里压缩我没碰到过任何问题


--【柒】--:

请问佬友,这样改了之后压缩效果和速度会更好么
我是cpa套了一层newapi


--【捌】--:

请问您是官方下载的codex cli+官方订阅+普通的魔法是吗,有什么别的特殊配置吗?


--【玖】--:

是cpa吗?如果是cpa我今天看到说和本地和远程压缩没啥区别不知道是不是真的


--【拾】--:

用codex的话,这块上下文压缩好慢,感觉这块好差


--【拾壹】--:

我没有改上下文,还是用的官方的配置,258k上下文。模型是gpt5.5-xhigh。目前一到压缩就会失败,且重试若干次无效。

阅读全文
问题描述:

image1166×1326 43.3 KB

网友解答:
--【壹】--:

这个感觉像是官方的问题 我现在是这么解决的
config.toml里面 provider name改成非OpenAI 这样不会触发openai远端压缩 而是走response的压缩
代价是压缩不如原版


--【贰】--:

遇到同样的问题很久了,github上看有人提issue,但一直没被解决,很神秘


--【叁】--:

可以,改下面这三个地方

model_provider = "OpenAI" [model_providers] [model_providers.OpenAI] name = "OpenAI"


--【肆】--:

codex 的gpt 5.5好像现在只支持400k,api才是1m


--【伍】--:

老哥,我想请问:如果用cpa的情况下触发openai远端压缩,有机会可以做到吗


--【陆】--:

可以试试cli,cli里压缩我没碰到过任何问题


--【柒】--:

请问佬友,这样改了之后压缩效果和速度会更好么
我是cpa套了一层newapi


--【捌】--:

请问您是官方下载的codex cli+官方订阅+普通的魔法是吗,有什么别的特殊配置吗?


--【玖】--:

是cpa吗?如果是cpa我今天看到说和本地和远程压缩没啥区别不知道是不是真的


--【拾】--:

用codex的话,这块上下文压缩好慢,感觉这块好差


--【拾壹】--:

我没有改上下文,还是用的官方的配置,258k上下文。模型是gpt5.5-xhigh。目前一到压缩就会失败,且重试若干次无效。

阅读全文