codex gpt5.5上下文解锁

2026-04-29 08:223阅读0评论SEO教程
  • 内容介绍
  • 文章标签
  • 相关推荐
问题描述:

今天codex更新,发现gpt5.5只有250k的上下文,之前在toml中的model_context_window配置似乎失效了。
那么依旧找gpt5.5自己尝试解决一下,啪的一下很快啊。
image289×134 5.18 KB

新版 Codex 里,model_context_window = 500000 可能无效,是因为客户端会先查模型 catalog。若模型 slug 没被 catalog 正确认出,例如 gpt-5.5,它会走 fallback metadata:context_window = 272000,再乘 effective_context_window_percent = 95,所以实际显示 258400。单独写 model_context_window 会被 max_context_window clamp,不能突破。

解决办法是用 model_catalog_json 自定义模型元数据。

  1. 在 ~/.codex/config.toml 增加:

model = "gpt-5.5" model_context_window = 500000 model_auto_compact_token_limit = 450000 model_catalog_json = 'C:\Users\你的用户名\.codex\model_catalog_custom.json'

  1. 新建 ~/.codex/model_catalog_custom.json,核心是让 gpt-5.5 有这些字段:

{ "models": [ { "slug": "gpt-5.5", "display_name": "gpt-5.5", "context_window": 500000, "max_context_window": 500000, "auto_compact_token_limit": 450000, "effective_context_window_percent": 100, "supported_in_api": true, "visibility": "list" } ] }

实际使用时最好不要只写这么少字段,而是从现有 ~/.codex/models_cache.json 复制 gpt-5.4 那整段模型 metadata,改 slug/display_name/context_window/max_context_window/auto_compact_token_limit/effective_context_window_percent,这样不会丢 reasoning、tools、instructions 等能力字段。

  1. 完全退出 Codex 再重开,新线程里看 model_context_window 应该从 258400 变成 500000。

感谢指出

neteroster:

这个设置对 5.5 是无效的,服务器会校验输入是否 <272k tokens 左右

大概到270K时触发服务端报错:

洗洗睡了,只能说相比不改能多用个几十K,然并卵。

网友解答:
--【壹】--:

还没用到上限触发压缩,有待各位佬友测试


--【贰】--:

原来如此!那看来无解了,感谢指出,差点误导大家


--【叁】--:

这个设置对 5.5 是无效的,服务器会校验输入是否 <272k tokens 左右

GPT-5.5 / Codex 上下文相关问题 开发调优
站内有很多关于 5.5 / Codex 上下文相关讨论,比较混乱,总结一下: 首先,我们要知道,gpt-5.5 满血版是 1M 上下文,API 能用到,但是 codex 订阅只给了 400k 上下文。 这个 400K 上下文实际上是模型上下文,也就是输入+输出模型最大能处理的上下文,并不是单纯的最大输入窗口。具体来说,codex 给输入分配了约 260k,给输出分配了 128k,最后剩余一点用…

即使本地改了超出仍会报错


--【肆】--:

订阅400K,API才1M,直接改大了后,能不能正常远程压缩?

image722×710 31.1 KB

问题描述:

今天codex更新,发现gpt5.5只有250k的上下文,之前在toml中的model_context_window配置似乎失效了。
那么依旧找gpt5.5自己尝试解决一下,啪的一下很快啊。
image289×134 5.18 KB

新版 Codex 里,model_context_window = 500000 可能无效,是因为客户端会先查模型 catalog。若模型 slug 没被 catalog 正确认出,例如 gpt-5.5,它会走 fallback metadata:context_window = 272000,再乘 effective_context_window_percent = 95,所以实际显示 258400。单独写 model_context_window 会被 max_context_window clamp,不能突破。

解决办法是用 model_catalog_json 自定义模型元数据。

  1. 在 ~/.codex/config.toml 增加:

model = "gpt-5.5" model_context_window = 500000 model_auto_compact_token_limit = 450000 model_catalog_json = 'C:\Users\你的用户名\.codex\model_catalog_custom.json'

  1. 新建 ~/.codex/model_catalog_custom.json,核心是让 gpt-5.5 有这些字段:

{ "models": [ { "slug": "gpt-5.5", "display_name": "gpt-5.5", "context_window": 500000, "max_context_window": 500000, "auto_compact_token_limit": 450000, "effective_context_window_percent": 100, "supported_in_api": true, "visibility": "list" } ] }

实际使用时最好不要只写这么少字段,而是从现有 ~/.codex/models_cache.json 复制 gpt-5.4 那整段模型 metadata,改 slug/display_name/context_window/max_context_window/auto_compact_token_limit/effective_context_window_percent,这样不会丢 reasoning、tools、instructions 等能力字段。

  1. 完全退出 Codex 再重开,新线程里看 model_context_window 应该从 258400 变成 500000。

感谢指出

neteroster:

这个设置对 5.5 是无效的,服务器会校验输入是否 <272k tokens 左右

大概到270K时触发服务端报错:

洗洗睡了,只能说相比不改能多用个几十K,然并卵。

网友解答:
--【壹】--:

还没用到上限触发压缩,有待各位佬友测试


--【贰】--:

原来如此!那看来无解了,感谢指出,差点误导大家


--【叁】--:

这个设置对 5.5 是无效的,服务器会校验输入是否 <272k tokens 左右

GPT-5.5 / Codex 上下文相关问题 开发调优
站内有很多关于 5.5 / Codex 上下文相关讨论,比较混乱,总结一下: 首先,我们要知道,gpt-5.5 满血版是 1M 上下文,API 能用到,但是 codex 订阅只给了 400k 上下文。 这个 400K 上下文实际上是模型上下文,也就是输入+输出模型最大能处理的上下文,并不是单纯的最大输入窗口。具体来说,codex 给输入分配了约 260k,给输出分配了 128k,最后剩余一点用…

即使本地改了超出仍会报错


--【肆】--:

订阅400K,API才1M,直接改大了后,能不能正常远程压缩?

image722×710 31.1 KB