codex 中GPT5.5 现在怎么配置 1M 上下文

2026-04-29 10:251阅读0评论SEO资源
  • 内容介绍
  • 文章标签
  • 相关推荐
问题描述: [已解决]codex 上下文满太快了,有人经常遇到吗? 搞七捻三
解决方案: 改用户目录下的.codex目录的config.toml model_context_window = 1000000 我的 codex 还没怎么用,上下文就满了,大家的 GPT-4 都是 258K 吗?我怎么记得有 1M 的 [image]

之前用 GPT5.4 的时候,可以自己配置上下文,之前也搜了官方支持 1M 上下文。


这两天更新 codex 之后,切换到 GPT5.5之后,这个配置失效了,佬们有新的手段吗?

网友解答:
--【壹】--:

有位佬友发过,codex 中的gpt-5.5只支持400K, 只有官方api才支持1m上下文


--【贰】--:

主要是随便聊几句,上下文就满了。我的任务都比较复杂。。。


--【叁】--:

没必要除非你想让gpt变成智障。他不懂让他一直读文件,然后些文件记录就好


--【肆】--:

了解了,谢谢,我试试 400K 的设置看看

标签:纯水Codex
问题描述: [已解决]codex 上下文满太快了,有人经常遇到吗? 搞七捻三
解决方案: 改用户目录下的.codex目录的config.toml model_context_window = 1000000 我的 codex 还没怎么用,上下文就满了,大家的 GPT-4 都是 258K 吗?我怎么记得有 1M 的 [image]

之前用 GPT5.4 的时候,可以自己配置上下文,之前也搜了官方支持 1M 上下文。


这两天更新 codex 之后,切换到 GPT5.5之后,这个配置失效了,佬们有新的手段吗?

网友解答:
--【壹】--:

有位佬友发过,codex 中的gpt-5.5只支持400K, 只有官方api才支持1m上下文


--【贰】--:

主要是随便聊几句,上下文就满了。我的任务都比较复杂。。。


--【叁】--:

没必要除非你想让gpt变成智障。他不懂让他一直读文件,然后些文件记录就好


--【肆】--:

了解了,谢谢,我试试 400K 的设置看看

标签:纯水Codex