GPT-5.5Codex 上下文相关问题

2026-04-29 09:502阅读0评论SEO资讯
  • 内容介绍
  • 文章标签
  • 相关推荐
问题描述:

站内有很多关于 5.5 / Codex 上下文相关讨论,比较混乱,总结一下:

首先,我们要知道,gpt-5.5 满血版是 1M 上下文,API 能用到,但是 codex 订阅只给了 400k 上下文。

这个 400K 上下文实际上是模型上下文,也就是输入+输出模型最大能处理的上下文,并不是单纯的最大输入窗口。具体来说,codex 给输入分配了约 260k,给输出分配了 128k,最后剩余一点用作上下文压缩的冗余。

所以很多人看到的大概 260-270k 上下文就是这么来的。

不过实际上,之前就有人认为:输出窗口分配 128k 太大了,完全没必要,实际上这是可以改的,目前的具体做法大概:

修改上下文

把 codex 仓库的 codex-rs/models-manager/models.json 复制一个到本地,然后把里面5.5的 context_window, max_context_window 改成想要的值,例如 350000

然后在 ~/.codex/config.toml 里面指定 catalog:

model_catalog_json = "路径"

例如改成 350k,但是这样输出超过50k左右就会导致截断、失败,这个需要自行权衡。
勘误:看来不行,输入上下文定死了,270k附近的输入,不用改了

其他问题

  1. 为什么 codex 里面 5.5 的上下文反而小于 5.4:大概率是成本考虑,5.5 的规模是要比 5.4 大的,推理成本更高,开放长上下文会大幅增加推理成本
  2. 会提高吗:按照 Codex 团队负责人,会的( https://x.com/thsottiaux/status/2047436878350307482 ),但不知道什么时候、提高到多少
  3. 实际上目前的 5.5 上下文和 5.2/5.3/5.4(不手动修改1M)完全一样,如果前面你用得不错 5.5 也不会有什么问题
网友解答:
--【壹】--:

OpenAI 真的有点狠啊,5.4 的 1m 上下文这么差就放给大家体验了,只为了秀一下自己也有 1m 的编程模型,结果 5.5 的 1m 上下文这么强,就不给用了


--【贰】--:

有佬试过5.5超过500k的效果吗

5.4超过500k指令遵循度非常低


--【叁】--:

codex限270k测不了

api又太贵了,不太好弄


--【肆】--:

已知,输入+输出,完整的上下文窗口是400k;
那么,CPA代理出来,也是400K;

有个问题请教:
Claude code接入CPA后,如何使用上400K呢?

因为默认开启的是200K,目前来看,确实短了点。
开启Oups[1M]后,超出400K就会报错。


--【伍】--:

勘误:看来不行,测了一下,输入上下文定死了,270k附近的输入,最多改到270


--【陆】--:

claude code可以设置自动压缩阈值,试试把这个值调到256k左右

问题描述:

站内有很多关于 5.5 / Codex 上下文相关讨论,比较混乱,总结一下:

首先,我们要知道,gpt-5.5 满血版是 1M 上下文,API 能用到,但是 codex 订阅只给了 400k 上下文。

这个 400K 上下文实际上是模型上下文,也就是输入+输出模型最大能处理的上下文,并不是单纯的最大输入窗口。具体来说,codex 给输入分配了约 260k,给输出分配了 128k,最后剩余一点用作上下文压缩的冗余。

所以很多人看到的大概 260-270k 上下文就是这么来的。

不过实际上,之前就有人认为:输出窗口分配 128k 太大了,完全没必要,实际上这是可以改的,目前的具体做法大概:

修改上下文

把 codex 仓库的 codex-rs/models-manager/models.json 复制一个到本地,然后把里面5.5的 context_window, max_context_window 改成想要的值,例如 350000

然后在 ~/.codex/config.toml 里面指定 catalog:

model_catalog_json = "路径"

例如改成 350k,但是这样输出超过50k左右就会导致截断、失败,这个需要自行权衡。
勘误:看来不行,输入上下文定死了,270k附近的输入,不用改了

其他问题

  1. 为什么 codex 里面 5.5 的上下文反而小于 5.4:大概率是成本考虑,5.5 的规模是要比 5.4 大的,推理成本更高,开放长上下文会大幅增加推理成本
  2. 会提高吗:按照 Codex 团队负责人,会的( https://x.com/thsottiaux/status/2047436878350307482 ),但不知道什么时候、提高到多少
  3. 实际上目前的 5.5 上下文和 5.2/5.3/5.4(不手动修改1M)完全一样,如果前面你用得不错 5.5 也不会有什么问题
网友解答:
--【壹】--:

OpenAI 真的有点狠啊,5.4 的 1m 上下文这么差就放给大家体验了,只为了秀一下自己也有 1m 的编程模型,结果 5.5 的 1m 上下文这么强,就不给用了


--【贰】--:

有佬试过5.5超过500k的效果吗

5.4超过500k指令遵循度非常低


--【叁】--:

codex限270k测不了

api又太贵了,不太好弄


--【肆】--:

已知,输入+输出,完整的上下文窗口是400k;
那么,CPA代理出来,也是400K;

有个问题请教:
Claude code接入CPA后,如何使用上400K呢?

因为默认开启的是200K,目前来看,确实短了点。
开启Oups[1M]后,超出400K就会报错。


--【伍】--:

勘误:看来不行,测了一下,输入上下文定死了,270k附近的输入,最多改到270


--【陆】--:

claude code可以设置自动压缩阈值,试试把这个值调到256k左右