Codex这个压缩失败太折磨人了
- 内容介绍
- 文章标签
- 相关推荐
image1166×1326 43.3 KB
网友解答:--【壹】--:
这个感觉像是官方的问题 我现在是这么解决的
config.toml里面 provider name改成非OpenAI 这样不会触发openai远端压缩 而是走response的压缩
代价是压缩不如原版
--【贰】--:
遇到同样的问题很久了,github上看有人提issue,但一直没被解决,很神秘
--【叁】--:
可以,改下面这三个地方
model_provider = "OpenAI"
[model_providers]
[model_providers.OpenAI]
name = "OpenAI"
--【肆】--:
codex 的gpt 5.5好像现在只支持400k,api才是1m
--【伍】--:
老哥,我想请问:如果用cpa的情况下触发openai远端压缩,有机会可以做到吗
--【陆】--:
可以试试cli,cli里压缩我没碰到过任何问题
--【柒】--:
请问佬友,这样改了之后压缩效果和速度会更好么
我是cpa套了一层newapi
--【捌】--:
请问您是官方下载的codex cli+官方订阅+普通的魔法是吗,有什么别的特殊配置吗?
--【玖】--:
是cpa吗?如果是cpa我今天看到说和本地和远程压缩没啥区别不知道是不是真的
--【拾】--:
用codex的话,这块上下文压缩好慢,感觉这块好差
--【拾壹】--:
我没有改上下文,还是用的官方的配置,258k上下文。模型是gpt5.5-xhigh。目前一到压缩就会失败,且重试若干次无效。
image1166×1326 43.3 KB
网友解答:--【壹】--:
这个感觉像是官方的问题 我现在是这么解决的
config.toml里面 provider name改成非OpenAI 这样不会触发openai远端压缩 而是走response的压缩
代价是压缩不如原版
--【贰】--:
遇到同样的问题很久了,github上看有人提issue,但一直没被解决,很神秘
--【叁】--:
可以,改下面这三个地方
model_provider = "OpenAI"
[model_providers]
[model_providers.OpenAI]
name = "OpenAI"
--【肆】--:
codex 的gpt 5.5好像现在只支持400k,api才是1m
--【伍】--:
老哥,我想请问:如果用cpa的情况下触发openai远端压缩,有机会可以做到吗
--【陆】--:
可以试试cli,cli里压缩我没碰到过任何问题
--【柒】--:
请问佬友,这样改了之后压缩效果和速度会更好么
我是cpa套了一层newapi
--【捌】--:
请问您是官方下载的codex cli+官方订阅+普通的魔法是吗,有什么别的特殊配置吗?
--【玖】--:
是cpa吗?如果是cpa我今天看到说和本地和远程压缩没啥区别不知道是不是真的
--【拾】--:
用codex的话,这块上下文压缩好慢,感觉这块好差
--【拾壹】--:
我没有改上下文,还是用的官方的配置,258k上下文。模型是gpt5.5-xhigh。目前一到压缩就会失败,且重试若干次无效。

