[已解决]codex 上下文满太快了,有人经常遇到吗?
- 内容介绍
- 文章标签
- 相关推荐
解决方案:
改用户目录下的.codex目录的config.toml
model_context_window = 1000000
我的 codex 还没怎么用,上下文就满了,大家的 GPT-4 都是 258K 吗?我怎么记得有 1M 的
image1570×752 78.6 KB
网友解答:--【壹】--:
你去config文件里面声明一下 context window改成1m的
--【贰】--:
确实可以用,看了佬们发的原因才明白为什么 codex 不自己切换。上下文长了之后,注意力差确实是一个问题。
cc 现在我发现上下文达到 50% 之后效果也开始变差了。
--【叁】--:
之前都是开xhigh用, 后来发现没有必要, 一个是太慢了, 而且好像压缩后不会太偏移方向.
--【肆】--:
codex压缩还是有点东西 不像cc
--【伍】--:
模型本身的问题,1m注意力太差召回率只有50%不到,有点流口水,不过我一直用400k还行,奥特曼现在攒gpt6估计也不会管5.4了
--【陆】--:
佬友们,现在codex的1m上下文的降智问题修复了吗?
--【柒】--:
可以自己设置的,不过gpt-5.4有效注意力没那么长
上下文超过那个注意力甜区,会降智
--【捌】--:
这个想法很完美呀,我也来试试400k的效果
--【玖】--:
看看这两个参数行不行,自己设定上下文和压缩阈值
model_context_window = 1000000
model_auto_compact_token_limit = 300000
--【拾】--:
gpt5.4是1M上下文,你这里200k应该是codex工具配置问题,你可以让AI 帮你研究下:
codex 里面5.4是1M上下文,我目前是200k 帮我修好
--【拾壹】--:
感觉5.4就是很啰嗦的大模型,还没聊几次就感觉要满上下文了,可以去agents.md把提示词优化一下
--【拾贰】--:
改用户目录下的.codex目录的config.tomal
image571×345 22.5 KB
--【拾叁】--:
确实有1M的,但是别人测下来衰减的很厉害
--【拾肆】--:
会出现反复处理上一次的任务,得多说几次才行
--【拾伍】--:
最近在用 gsd,这个可以通过流程降低上下文的问题,还在实验,感觉效果还可以。
--【拾陆】--:
还好,用1M的基本上不会打满就能完成任务
--【拾柒】--:
似乎没有, 而且上下文太大慢的很. 开xhigh就很慢
解决方案:
改用户目录下的.codex目录的config.toml
model_context_window = 1000000
我的 codex 还没怎么用,上下文就满了,大家的 GPT-4 都是 258K 吗?我怎么记得有 1M 的
image1570×752 78.6 KB
网友解答:--【壹】--:
你去config文件里面声明一下 context window改成1m的
--【贰】--:
确实可以用,看了佬们发的原因才明白为什么 codex 不自己切换。上下文长了之后,注意力差确实是一个问题。
cc 现在我发现上下文达到 50% 之后效果也开始变差了。
--【叁】--:
之前都是开xhigh用, 后来发现没有必要, 一个是太慢了, 而且好像压缩后不会太偏移方向.
--【肆】--:
codex压缩还是有点东西 不像cc
--【伍】--:
模型本身的问题,1m注意力太差召回率只有50%不到,有点流口水,不过我一直用400k还行,奥特曼现在攒gpt6估计也不会管5.4了
--【陆】--:
佬友们,现在codex的1m上下文的降智问题修复了吗?
--【柒】--:
可以自己设置的,不过gpt-5.4有效注意力没那么长
上下文超过那个注意力甜区,会降智
--【捌】--:
这个想法很完美呀,我也来试试400k的效果
--【玖】--:
看看这两个参数行不行,自己设定上下文和压缩阈值
model_context_window = 1000000
model_auto_compact_token_limit = 300000
--【拾】--:
gpt5.4是1M上下文,你这里200k应该是codex工具配置问题,你可以让AI 帮你研究下:
codex 里面5.4是1M上下文,我目前是200k 帮我修好
--【拾壹】--:
感觉5.4就是很啰嗦的大模型,还没聊几次就感觉要满上下文了,可以去agents.md把提示词优化一下
--【拾贰】--:
改用户目录下的.codex目录的config.tomal
image571×345 22.5 KB
--【拾叁】--:
确实有1M的,但是别人测下来衰减的很厉害
--【拾肆】--:
会出现反复处理上一次的任务,得多说几次才行
--【拾伍】--:
最近在用 gsd,这个可以通过流程降低上下文的问题,还在实验,感觉效果还可以。
--【拾陆】--:
还好,用1M的基本上不会打满就能完成任务
--【拾柒】--:
似乎没有, 而且上下文太大慢的很. 开xhigh就很慢

![[已解决]codex 上下文满太快了,有人经常遇到吗?](/imgrand/pGtCLCu8.webp)