GPT-5.5 配了 1M 却又显示 258K?Codex Desktop Windows 修复记录(无效)

2026-04-29 09:522阅读0评论SEO教程
  • 内容介绍
  • 文章标签
  • 相关推荐
问题描述:

我遇到的问题是:config.toml 里明明已经写了 GPT-5.5 的 1M 上下文,但 Codex Desktop 新开线程或重启后,界面又显示回 258K。

最后排查发现,不是 config.toml 写错,而是 Codex Desktop 会读取本地模型缓存。缓存里的 GPT-5.5 被刷新成了:

"context_window": 272000, "max_context_window": 272000, "effective_context_window_percent": 95

所以界面看到的是大约:

272000 * 95% = 258400

正确配置
C:\Users\<用户名>\.codex\config.toml 里继续保留 1M:

model = "gpt-5.5" model_context_window = 1000000 model_auto_compact_token_limit = 900000

真正要修的是缓存
把下面两个文件里,sluggpt-5.5 的对象改掉:

C:\Users\<用户名>\.codex\models_cache.json C:\Users\<用户名>\.codex\model-catalog.gpt-5.5.json

只改这两个字段:

"context_window": 1000000, "max_context_window": 1000000

其他模型和其他字段不要动。

防止被刷新覆盖
Codex 可能会重新刷新模型缓存,所以我在 Windows 计划任务里加了一个登录后启动的 watcher,每 30 秒检查一次。如果发现 GPT-5.5 又变回 272000,就自动改回 1000000

任务名可以叫:

Codex GPT-5.5 Context Watcher

脚本放在:

C:\Users\<用户名>\.codex\bin\

验证方式
修完后检查两个缓存文件,GPT-5.5 应该是:

context_window=1000000 max_context_window=1000000

界面如果显示约 950K,这是正常的,不是失败。因为 Codex 会按 effective_context_window_percent = 95 保留一部分上下文:

1000000 * 95% = 950000

看到 950K 是成功;看到 258K 才说明缓存又被覆盖了。

注意
这个方法只是修 Codex Desktop 本地模型缓存和上下文预算显示。如果你的上游 API 或中转服务本身不支持 1M,上下文超过服务端限制时仍然可能报错。

网友解答:
--【壹】--:

codex不是目前5.5本身就不支持1m,1m只有api支持,你这样改了有什么用呢


--【贰】--:

我还在奇怪,明明官网上写的订阅最多支持 400k(算完输出就是 258k) ,咋能强开的,有没有测试的调用页面,我看看强开的成果


--【叁】--:

感谢分享。

这个应该算是openai的bug吧


--【肆】--:

好吧确实是这样的,超出以后还是会报错哈哈


--【伍】--:

我刚才尝试了好久放弃了,切回5.4了,先把手头工作做完了再捣鼓捣鼓


--【陆】--:

1M不用想了,codex上游不支持的,配置了也没用

openai.APIError: Your input exceeds the context window of this model. Please adjust your input and try again.

可以改小于 400K 的值,比如 300K

标签:人工智能
问题描述:

我遇到的问题是:config.toml 里明明已经写了 GPT-5.5 的 1M 上下文,但 Codex Desktop 新开线程或重启后,界面又显示回 258K。

最后排查发现,不是 config.toml 写错,而是 Codex Desktop 会读取本地模型缓存。缓存里的 GPT-5.5 被刷新成了:

"context_window": 272000, "max_context_window": 272000, "effective_context_window_percent": 95

所以界面看到的是大约:

272000 * 95% = 258400

正确配置
C:\Users\<用户名>\.codex\config.toml 里继续保留 1M:

model = "gpt-5.5" model_context_window = 1000000 model_auto_compact_token_limit = 900000

真正要修的是缓存
把下面两个文件里,sluggpt-5.5 的对象改掉:

C:\Users\<用户名>\.codex\models_cache.json C:\Users\<用户名>\.codex\model-catalog.gpt-5.5.json

只改这两个字段:

"context_window": 1000000, "max_context_window": 1000000

其他模型和其他字段不要动。

防止被刷新覆盖
Codex 可能会重新刷新模型缓存,所以我在 Windows 计划任务里加了一个登录后启动的 watcher,每 30 秒检查一次。如果发现 GPT-5.5 又变回 272000,就自动改回 1000000

任务名可以叫:

Codex GPT-5.5 Context Watcher

脚本放在:

C:\Users\<用户名>\.codex\bin\

验证方式
修完后检查两个缓存文件,GPT-5.5 应该是:

context_window=1000000 max_context_window=1000000

界面如果显示约 950K,这是正常的,不是失败。因为 Codex 会按 effective_context_window_percent = 95 保留一部分上下文:

1000000 * 95% = 950000

看到 950K 是成功;看到 258K 才说明缓存又被覆盖了。

注意
这个方法只是修 Codex Desktop 本地模型缓存和上下文预算显示。如果你的上游 API 或中转服务本身不支持 1M,上下文超过服务端限制时仍然可能报错。

网友解答:
--【壹】--:

codex不是目前5.5本身就不支持1m,1m只有api支持,你这样改了有什么用呢


--【贰】--:

我还在奇怪,明明官网上写的订阅最多支持 400k(算完输出就是 258k) ,咋能强开的,有没有测试的调用页面,我看看强开的成果


--【叁】--:

感谢分享。

这个应该算是openai的bug吧


--【肆】--:

好吧确实是这样的,超出以后还是会报错哈哈


--【伍】--:

我刚才尝试了好久放弃了,切回5.4了,先把手头工作做完了再捣鼓捣鼓


--【陆】--:

1M不用想了,codex上游不支持的,配置了也没用

openai.APIError: Your input exceeds the context window of this model. Please adjust your input and try again.

可以改小于 400K 的值,比如 300K

标签:人工智能