关于GPT5.5在Codex app中的上下文问题?

2026-04-29 10:312阅读0评论SEO资讯
  • 内容介绍
  • 文章标签
  • 相关推荐
问题描述:

GPT5.5在Codex app中疑似开不了1m上下文?我改完config了,GPT5.4是可以正常触发1m的(ui界面显示950k),但是GPT5.5死活都是258k……。
我看oai网页介绍说5.5给Codex开放了400k上下文,但是我调整到400k之后,GPT5.5依旧显示258k且会自动压缩。
好像挺多佬友和我一个情况的?大家都是这样吗
16dad82ad5f33d054da37d06ab21f7f31814×810 101 KB

网友解答:
--【壹】--:

啊?就是说5.5只能用258k啊?OpenAI在逗我玩吗


--【贰】--:

image1512×352 40.8 KB
OpenAI 也跟 claude 学坏了,只有 API 才能用1M的上下文


--【叁】--:

5.5 官网文档说的在codex中只有400K吧


--【肆】--:

这个注意力codex只给258k太出生了点吧


--【伍】--:

这不改1m有点亏吧
image1903×1248 189 KB


--【陆】--:

后续会把上下文放宽到1m吗,不然现在这样用的好局限啊,一下就压缩了


--【柒】--:

说明一个问题,就是起码近3年上下文长度很难突破1m,目前已经有大佬测试如果上下文超过300k 智力和专注力就会大大下降,所以我习惯性的就是plan设计完毕另起一个对话处理,这样返工更少


--【捌】--:

是的,现在改config也没用,还是显示上限是258k。

而且根据官方发出来的上下文效果,感觉上限设置在600k,500k自动压缩是一个甜点范围。

500k时都有80%左右的准确率


--【玖】--:

上下文 400K → 258K == (400K - 128K(输出+思考) * 0.95)
等同没改


--【拾】--:

400K = 258(input) + 128(output) + 冗余,5.4 没开 1M 的时候一直是这样的


--【拾壹】--:

5.4我也只开了500k强制压缩

不知道你们有没有感觉到,超过500k后指令遵循度断崖下降


--【拾贰】--:


应该是没有metadata的问题吧


--【拾叁】--:

image805×242 45.5 KB


--【拾肆】--:

5.5 是一个更大的模型,API 费用涨了 2 倍,Codex 上能保留之前 5.4 的 400K 已经不错了(况且 5.4 本身 >300K 都流口水,真的有人开 1M 吗…)


--【拾伍】--:

我开啊,我都是用到360k左右手动总结的……如果是258k那会在240k左右就自动总结,而且常常在任务进行到一半的时候自动压缩上下文,闹心……


--【拾陆】--:

真的,为啥codex只给258K的上下文,感觉真不够用

问题描述:

GPT5.5在Codex app中疑似开不了1m上下文?我改完config了,GPT5.4是可以正常触发1m的(ui界面显示950k),但是GPT5.5死活都是258k……。
我看oai网页介绍说5.5给Codex开放了400k上下文,但是我调整到400k之后,GPT5.5依旧显示258k且会自动压缩。
好像挺多佬友和我一个情况的?大家都是这样吗
16dad82ad5f33d054da37d06ab21f7f31814×810 101 KB

网友解答:
--【壹】--:

啊?就是说5.5只能用258k啊?OpenAI在逗我玩吗


--【贰】--:

image1512×352 40.8 KB
OpenAI 也跟 claude 学坏了,只有 API 才能用1M的上下文


--【叁】--:

5.5 官网文档说的在codex中只有400K吧


--【肆】--:

这个注意力codex只给258k太出生了点吧


--【伍】--:

这不改1m有点亏吧
image1903×1248 189 KB


--【陆】--:

后续会把上下文放宽到1m吗,不然现在这样用的好局限啊,一下就压缩了


--【柒】--:

说明一个问题,就是起码近3年上下文长度很难突破1m,目前已经有大佬测试如果上下文超过300k 智力和专注力就会大大下降,所以我习惯性的就是plan设计完毕另起一个对话处理,这样返工更少


--【捌】--:

是的,现在改config也没用,还是显示上限是258k。

而且根据官方发出来的上下文效果,感觉上限设置在600k,500k自动压缩是一个甜点范围。

500k时都有80%左右的准确率


--【玖】--:

上下文 400K → 258K == (400K - 128K(输出+思考) * 0.95)
等同没改


--【拾】--:

400K = 258(input) + 128(output) + 冗余,5.4 没开 1M 的时候一直是这样的


--【拾壹】--:

5.4我也只开了500k强制压缩

不知道你们有没有感觉到,超过500k后指令遵循度断崖下降


--【拾贰】--:


应该是没有metadata的问题吧


--【拾叁】--:

image805×242 45.5 KB


--【拾肆】--:

5.5 是一个更大的模型,API 费用涨了 2 倍,Codex 上能保留之前 5.4 的 400K 已经不错了(况且 5.4 本身 >300K 都流口水,真的有人开 1M 吗…)


--【拾伍】--:

我开啊,我都是用到360k左右手动总结的……如果是258k那会在240k左右就自动总结,而且常常在任务进行到一半的时候自动压缩上下文,闹心……


--【拾陆】--:

真的,为啥codex只给258K的上下文,感觉真不够用