[已解决]codex 上下文满太快了,有人经常遇到吗?

2026-04-13 13:021阅读0评论SEO资源
  • 内容介绍
  • 文章标签
  • 相关推荐
问题描述:

解决方案:
改用户目录下的.codex目录的config.toml
model_context_window = 1000000


我的 codex 还没怎么用,上下文就满了,大家的 GPT-4 都是 258K 吗?我怎么记得有 1M 的

image1570×752 78.6 KB

网友解答:
--【壹】--:

你去config文件里面声明一下 context window改成1m的


--【贰】--:

确实可以用,看了佬们发的原因才明白为什么 codex 不自己切换。上下文长了之后,注意力差确实是一个问题。

cc 现在我发现上下文达到 50% 之后效果也开始变差了。


--【叁】--:

之前都是开xhigh用, 后来发现没有必要, 一个是太慢了, 而且好像压缩后不会太偏移方向.


--【肆】--:

codex压缩还是有点东西 不像cc


--【伍】--:

模型本身的问题,1m注意力太差召回率只有50%不到,有点流口水,不过我一直用400k还行,奥特曼现在攒gpt6估计也不会管5.4了


--【陆】--:

佬友们,现在codex的1m上下文的降智问题修复了吗?


--【柒】--:

可以自己设置的,不过gpt-5.4有效注意力没那么长
上下文超过那个注意力甜区,会降智


--【捌】--:

这个想法很完美呀,我也来试试400k的效果


--【玖】--:

看看这两个参数行不行,自己设定上下文和压缩阈值
model_context_window = 1000000
model_auto_compact_token_limit = 300000


--【拾】--:

gpt5.4是1M上下文,你这里200k应该是codex工具配置问题,你可以让AI 帮你研究下:
codex 里面5.4是1M上下文,我目前是200k 帮我修好


--【拾壹】--:

感觉5.4就是很啰嗦的大模型,还没聊几次就感觉要满上下文了,可以去agents.md把提示词优化一下


--【拾贰】--:

改用户目录下的.codex目录的config.tomal
image571×345 22.5 KB


--【拾叁】--:

确实有1M的,但是别人测下来衰减的很厉害


--【拾肆】--:

会出现反复处理上一次的任务,得多说几次才行


--【拾伍】--:

最近在用 gsd,这个可以通过流程降低上下文的问题,还在实验,感觉效果还可以。


--【拾陆】--:

还好,用1M的基本上不会打满就能完成任务


--【拾柒】--:

似乎没有, 而且上下文太大慢的很. 开xhigh就很慢

标签:纯水Codex
问题描述:

解决方案:
改用户目录下的.codex目录的config.toml
model_context_window = 1000000


我的 codex 还没怎么用,上下文就满了,大家的 GPT-4 都是 258K 吗?我怎么记得有 1M 的

image1570×752 78.6 KB

网友解答:
--【壹】--:

你去config文件里面声明一下 context window改成1m的


--【贰】--:

确实可以用,看了佬们发的原因才明白为什么 codex 不自己切换。上下文长了之后,注意力差确实是一个问题。

cc 现在我发现上下文达到 50% 之后效果也开始变差了。


--【叁】--:

之前都是开xhigh用, 后来发现没有必要, 一个是太慢了, 而且好像压缩后不会太偏移方向.


--【肆】--:

codex压缩还是有点东西 不像cc


--【伍】--:

模型本身的问题,1m注意力太差召回率只有50%不到,有点流口水,不过我一直用400k还行,奥特曼现在攒gpt6估计也不会管5.4了


--【陆】--:

佬友们,现在codex的1m上下文的降智问题修复了吗?


--【柒】--:

可以自己设置的,不过gpt-5.4有效注意力没那么长
上下文超过那个注意力甜区,会降智


--【捌】--:

这个想法很完美呀,我也来试试400k的效果


--【玖】--:

看看这两个参数行不行,自己设定上下文和压缩阈值
model_context_window = 1000000
model_auto_compact_token_limit = 300000


--【拾】--:

gpt5.4是1M上下文,你这里200k应该是codex工具配置问题,你可以让AI 帮你研究下:
codex 里面5.4是1M上下文,我目前是200k 帮我修好


--【拾壹】--:

感觉5.4就是很啰嗦的大模型,还没聊几次就感觉要满上下文了,可以去agents.md把提示词优化一下


--【拾贰】--:

改用户目录下的.codex目录的config.tomal
image571×345 22.5 KB


--【拾叁】--:

确实有1M的,但是别人测下来衰减的很厉害


--【拾肆】--:

会出现反复处理上一次的任务,得多说几次才行


--【拾伍】--:

最近在用 gsd,这个可以通过流程降低上下文的问题,还在实验,感觉效果还可以。


--【拾陆】--:

还好,用1M的基本上不会打满就能完成任务


--【拾柒】--:

似乎没有, 而且上下文太大慢的很. 开xhigh就很慢

标签:纯水Codex