codex gpt5.5上下文解锁
- 内容介绍
- 文章标签
- 相关推荐
今天codex更新,发现gpt5.5只有250k的上下文,之前在toml中的model_context_window配置似乎失效了。
那么依旧找gpt5.5自己尝试解决一下,啪的一下很快啊。
image289×134 5.18 KB
新版 Codex 里,model_context_window = 500000 可能无效,是因为客户端会先查模型 catalog。若模型 slug 没被 catalog 正确认出,例如 gpt-5.5,它会走 fallback metadata:context_window = 272000,再乘 effective_context_window_percent = 95,所以实际显示 258400。单独写 model_context_window 会被 max_context_window clamp,不能突破。
解决办法是用 model_catalog_json 自定义模型元数据。
- 在 ~/.codex/config.toml 增加:
model = "gpt-5.5" model_context_window = 500000 model_auto_compact_token_limit = 450000 model_catalog_json = 'C:\Users\你的用户名\.codex\model_catalog_custom.json'
- 新建 ~/.codex/model_catalog_custom.json,核心是让 gpt-5.5 有这些字段:
{ "models": [ { "slug": "gpt-5.5", "display_name": "gpt-5.5", "context_window": 500000, "max_context_window": 500000, "auto_compact_token_limit": 450000, "effective_context_window_percent": 100, "supported_in_api": true, "visibility": "list" } ] }实际使用时最好不要只写这么少字段,而是从现有 ~/.codex/models_cache.json 复制 gpt-5.4 那整段模型 metadata,改 slug/display_name/context_window/max_context_window/auto_compact_token_limit/effective_context_window_percent,这样不会丢 reasoning、tools、instructions 等能力字段。
- 完全退出 Codex 再重开,新线程里看 model_context_window 应该从 258400 变成 500000。
感谢指出
neteroster:这个设置对 5.5 是无效的,服务器会校验输入是否 <272k tokens 左右
大概到270K时触发服务端报错:
洗洗睡了,只能说相比不改能多用个几十K,然并卵。
网友解答:--【壹】--:
还没用到上限触发压缩,有待各位佬友测试
--【贰】--:
原来如此!那看来无解了,感谢指出,差点误导大家
--【叁】--:
这个设置对 5.5 是无效的,服务器会校验输入是否 <272k tokens 左右
GPT-5.5 / Codex 上下文相关问题 开发调优站内有很多关于 5.5 / Codex 上下文相关讨论,比较混乱,总结一下: 首先,我们要知道,gpt-5.5 满血版是 1M 上下文,API 能用到,但是 codex 订阅只给了 400k 上下文。 这个 400K 上下文实际上是模型上下文,也就是输入+输出模型最大能处理的上下文,并不是单纯的最大输入窗口。具体来说,codex 给输入分配了约 260k,给输出分配了 128k,最后剩余一点用…
即使本地改了超出仍会报错
--【肆】--:
订阅400K,API才1M,直接改大了后,能不能正常远程压缩?
image722×710 31.1 KB
今天codex更新,发现gpt5.5只有250k的上下文,之前在toml中的model_context_window配置似乎失效了。
那么依旧找gpt5.5自己尝试解决一下,啪的一下很快啊。
image289×134 5.18 KB
新版 Codex 里,model_context_window = 500000 可能无效,是因为客户端会先查模型 catalog。若模型 slug 没被 catalog 正确认出,例如 gpt-5.5,它会走 fallback metadata:context_window = 272000,再乘 effective_context_window_percent = 95,所以实际显示 258400。单独写 model_context_window 会被 max_context_window clamp,不能突破。
解决办法是用 model_catalog_json 自定义模型元数据。
- 在 ~/.codex/config.toml 增加:
model = "gpt-5.5" model_context_window = 500000 model_auto_compact_token_limit = 450000 model_catalog_json = 'C:\Users\你的用户名\.codex\model_catalog_custom.json'
- 新建 ~/.codex/model_catalog_custom.json,核心是让 gpt-5.5 有这些字段:
{ "models": [ { "slug": "gpt-5.5", "display_name": "gpt-5.5", "context_window": 500000, "max_context_window": 500000, "auto_compact_token_limit": 450000, "effective_context_window_percent": 100, "supported_in_api": true, "visibility": "list" } ] }实际使用时最好不要只写这么少字段,而是从现有 ~/.codex/models_cache.json 复制 gpt-5.4 那整段模型 metadata,改 slug/display_name/context_window/max_context_window/auto_compact_token_limit/effective_context_window_percent,这样不会丢 reasoning、tools、instructions 等能力字段。
- 完全退出 Codex 再重开,新线程里看 model_context_window 应该从 258400 变成 500000。
感谢指出
neteroster:这个设置对 5.5 是无效的,服务器会校验输入是否 <272k tokens 左右
大概到270K时触发服务端报错:
洗洗睡了,只能说相比不改能多用个几十K,然并卵。
网友解答:--【壹】--:
还没用到上限触发压缩,有待各位佬友测试
--【贰】--:
原来如此!那看来无解了,感谢指出,差点误导大家
--【叁】--:
这个设置对 5.5 是无效的,服务器会校验输入是否 <272k tokens 左右
GPT-5.5 / Codex 上下文相关问题 开发调优站内有很多关于 5.5 / Codex 上下文相关讨论,比较混乱,总结一下: 首先,我们要知道,gpt-5.5 满血版是 1M 上下文,API 能用到,但是 codex 订阅只给了 400k 上下文。 这个 400K 上下文实际上是模型上下文,也就是输入+输出模型最大能处理的上下文,并不是单纯的最大输入窗口。具体来说,codex 给输入分配了约 260k,给输出分配了 128k,最后剩余一点用…
即使本地改了超出仍会报错
--【肆】--:
订阅400K,API才1M,直接改大了后,能不能正常远程压缩?
image722×710 31.1 KB

