GPT-5.5Codex 上下文相关问题
- 内容介绍
- 文章标签
- 相关推荐
站内有很多关于 5.5 / Codex 上下文相关讨论,比较混乱,总结一下:
首先,我们要知道,gpt-5.5 满血版是 1M 上下文,API 能用到,但是 codex 订阅只给了 400k 上下文。
这个 400K 上下文实际上是模型上下文,也就是输入+输出模型最大能处理的上下文,并不是单纯的最大输入窗口。具体来说,codex 给输入分配了约 260k,给输出分配了 128k,最后剩余一点用作上下文压缩的冗余。
所以很多人看到的大概 260-270k 上下文就是这么来的。
不过实际上,之前就有人认为:输出窗口分配 128k 太大了,完全没必要,实际上这是可以改的,目前的具体做法大概:
修改上下文
把 codex 仓库的 codex-rs/models-manager/models.json 复制一个到本地,然后把里面5.5的 context_window, max_context_window 改成想要的值,例如 350000
然后在 ~/.codex/config.toml 里面指定 catalog:
model_catalog_json = "路径"
例如改成 350k,但是这样输出超过50k左右就会导致截断、失败,这个需要自行权衡。
勘误:看来不行,输入上下文定死了,270k附近的输入,不用改了
其他问题
- 为什么 codex 里面 5.5 的上下文反而小于 5.4:大概率是成本考虑,5.5 的规模是要比 5.4 大的,推理成本更高,开放长上下文会大幅增加推理成本
- 会提高吗:按照 Codex 团队负责人,会的( https://x.com/thsottiaux/status/2047436878350307482 ),但不知道什么时候、提高到多少
- 实际上目前的 5.5 上下文和 5.2/5.3/5.4(不手动修改1M)完全一样,如果前面你用得不错 5.5 也不会有什么问题
--【壹】--:
OpenAI 真的有点狠啊,5.4 的 1m 上下文这么差就放给大家体验了,只为了秀一下自己也有 1m 的编程模型,结果 5.5 的 1m 上下文这么强,就不给用了
--【贰】--:
有佬试过5.5超过500k的效果吗
5.4超过500k指令遵循度非常低
--【叁】--:
codex限270k测不了
api又太贵了,不太好弄
--【肆】--:
已知,输入+输出,完整的上下文窗口是400k;
那么,CPA代理出来,也是400K;
有个问题请教:
Claude code接入CPA后,如何使用上400K呢?
因为默认开启的是200K,目前来看,确实短了点。
开启Oups[1M]后,超出400K就会报错。
--【伍】--:
勘误:看来不行,测了一下,输入上下文定死了,270k附近的输入,最多改到270
--【陆】--:
claude code可以设置自动压缩阈值,试试把这个值调到256k左右
站内有很多关于 5.5 / Codex 上下文相关讨论,比较混乱,总结一下:
首先,我们要知道,gpt-5.5 满血版是 1M 上下文,API 能用到,但是 codex 订阅只给了 400k 上下文。
这个 400K 上下文实际上是模型上下文,也就是输入+输出模型最大能处理的上下文,并不是单纯的最大输入窗口。具体来说,codex 给输入分配了约 260k,给输出分配了 128k,最后剩余一点用作上下文压缩的冗余。
所以很多人看到的大概 260-270k 上下文就是这么来的。
不过实际上,之前就有人认为:输出窗口分配 128k 太大了,完全没必要,实际上这是可以改的,目前的具体做法大概:
修改上下文
把 codex 仓库的 codex-rs/models-manager/models.json 复制一个到本地,然后把里面5.5的 context_window, max_context_window 改成想要的值,例如 350000
然后在 ~/.codex/config.toml 里面指定 catalog:
model_catalog_json = "路径"
例如改成 350k,但是这样输出超过50k左右就会导致截断、失败,这个需要自行权衡。
勘误:看来不行,输入上下文定死了,270k附近的输入,不用改了
其他问题
- 为什么 codex 里面 5.5 的上下文反而小于 5.4:大概率是成本考虑,5.5 的规模是要比 5.4 大的,推理成本更高,开放长上下文会大幅增加推理成本
- 会提高吗:按照 Codex 团队负责人,会的( https://x.com/thsottiaux/status/2047436878350307482 ),但不知道什么时候、提高到多少
- 实际上目前的 5.5 上下文和 5.2/5.3/5.4(不手动修改1M)完全一样,如果前面你用得不错 5.5 也不会有什么问题
--【壹】--:
OpenAI 真的有点狠啊,5.4 的 1m 上下文这么差就放给大家体验了,只为了秀一下自己也有 1m 的编程模型,结果 5.5 的 1m 上下文这么强,就不给用了
--【贰】--:
有佬试过5.5超过500k的效果吗
5.4超过500k指令遵循度非常低
--【叁】--:
codex限270k测不了
api又太贵了,不太好弄
--【肆】--:
已知,输入+输出,完整的上下文窗口是400k;
那么,CPA代理出来,也是400K;
有个问题请教:
Claude code接入CPA后,如何使用上400K呢?
因为默认开启的是200K,目前来看,确实短了点。
开启Oups[1M]后,超出400K就会报错。
--【伍】--:
勘误:看来不行,测了一下,输入上下文定死了,270k附近的输入,最多改到270
--【陆】--:
claude code可以设置自动压缩阈值,试试把这个值调到256k左右

