codex 中GPT5.5 现在怎么配置 1M 上下文
- 内容介绍
- 文章标签
- 相关推荐
问题描述:
[已解决]codex 上下文满太快了,有人经常遇到吗?
搞七捻三
--【壹】--:
--【贰】--:
--【叁】--:
--【肆】--:
解决方案: 改用户目录下的.codex目录的config.toml model_context_window = 1000000 我的 codex 还没怎么用,上下文就满了,大家的 GPT-4 都是 258K 吗?我怎么记得有 1M 的 [image]
之前用 GPT5.4 的时候,可以自己配置上下文,之前也搜了官方支持 1M 上下文。
这两天更新 codex 之后,切换到 GPT5.5之后,这个配置失效了,佬们有新的手段吗?
网友解答:--【壹】--:
有位佬友发过,codex 中的gpt-5.5只支持400K, 只有官方api才支持1m上下文
--【贰】--:
主要是随便聊几句,上下文就满了。我的任务都比较复杂。。。
--【叁】--:
没必要除非你想让gpt变成智障。他不懂让他一直读文件,然后些文件记录就好
--【肆】--:
了解了,谢谢,我试试 400K 的设置看看
问题描述:
[已解决]codex 上下文满太快了,有人经常遇到吗?
搞七捻三
--【壹】--:
--【贰】--:
--【叁】--:
--【肆】--:
解决方案: 改用户目录下的.codex目录的config.toml model_context_window = 1000000 我的 codex 还没怎么用,上下文就满了,大家的 GPT-4 都是 258K 吗?我怎么记得有 1M 的 [image]
之前用 GPT5.4 的时候,可以自己配置上下文,之前也搜了官方支持 1M 上下文。
这两天更新 codex 之后,切换到 GPT5.5之后,这个配置失效了,佬们有新的手段吗?
网友解答:--【壹】--:
有位佬友发过,codex 中的gpt-5.5只支持400K, 只有官方api才支持1m上下文
--【贰】--:
主要是随便聊几句,上下文就满了。我的任务都比较复杂。。。
--【叁】--:
没必要除非你想让gpt变成智障。他不懂让他一直读文件,然后些文件记录就好
--【肆】--:
了解了,谢谢,我试试 400K 的设置看看

