关于GPT5.5在Codex app中的上下文问题?
- 内容介绍
- 文章标签
- 相关推荐
GPT5.5在Codex app中疑似开不了1m上下文?我改完config了,GPT5.4是可以正常触发1m的(ui界面显示950k),但是GPT5.5死活都是258k……。
我看oai网页介绍说5.5给Codex开放了400k上下文,但是我调整到400k之后,GPT5.5依旧显示258k且会自动压缩。
好像挺多佬友和我一个情况的?大家都是这样吗
16dad82ad5f33d054da37d06ab21f7f31814×810 101 KB
--【壹】--:
啊?就是说5.5只能用258k啊?OpenAI在逗我玩吗
--【贰】--:
image1512×352 40.8 KB
OpenAI 也跟 claude 学坏了,只有 API 才能用1M的上下文
--【叁】--:
5.5 官网文档说的在codex中只有400K吧
--【肆】--:
这个注意力codex只给258k太出生了点吧
--【伍】--:
这不改1m有点亏吧
image1903×1248 189 KB
--【陆】--:
后续会把上下文放宽到1m吗,不然现在这样用的好局限啊,一下就压缩了
--【柒】--:
说明一个问题,就是起码近3年上下文长度很难突破1m,目前已经有大佬测试如果上下文超过300k 智力和专注力就会大大下降,所以我习惯性的就是plan设计完毕另起一个对话处理,这样返工更少
--【捌】--:
是的,现在改config也没用,还是显示上限是258k。
而且根据官方发出来的上下文效果,感觉上限设置在600k,500k自动压缩是一个甜点范围。
500k时都有80%左右的准确率
--【玖】--:
上下文 400K → 258K == (400K - 128K(输出+思考) * 0.95)
等同没改
--【拾】--:
400K = 258(input) + 128(output) + 冗余,5.4 没开 1M 的时候一直是这样的
--【拾壹】--:
5.4我也只开了500k强制压缩
不知道你们有没有感觉到,超过500k后指令遵循度断崖下降
--【拾贰】--:
应该是没有metadata的问题吧
--【拾叁】--:
image805×242 45.5 KB
--【拾肆】--:
5.5 是一个更大的模型,API 费用涨了 2 倍,Codex 上能保留之前 5.4 的 400K 已经不错了(况且 5.4 本身 >300K 都流口水,真的有人开 1M 吗…)
--【拾伍】--:
我开啊,我都是用到360k左右手动总结的……如果是258k那会在240k左右就自动总结,而且常常在任务进行到一半的时候自动压缩上下文,闹心……
--【拾陆】--:
真的,为啥codex只给258K的上下文,感觉真不够用
GPT5.5在Codex app中疑似开不了1m上下文?我改完config了,GPT5.4是可以正常触发1m的(ui界面显示950k),但是GPT5.5死活都是258k……。
我看oai网页介绍说5.5给Codex开放了400k上下文,但是我调整到400k之后,GPT5.5依旧显示258k且会自动压缩。
好像挺多佬友和我一个情况的?大家都是这样吗
16dad82ad5f33d054da37d06ab21f7f31814×810 101 KB
--【壹】--:
啊?就是说5.5只能用258k啊?OpenAI在逗我玩吗
--【贰】--:
image1512×352 40.8 KB
OpenAI 也跟 claude 学坏了,只有 API 才能用1M的上下文
--【叁】--:
5.5 官网文档说的在codex中只有400K吧
--【肆】--:
这个注意力codex只给258k太出生了点吧
--【伍】--:
这不改1m有点亏吧
image1903×1248 189 KB
--【陆】--:
后续会把上下文放宽到1m吗,不然现在这样用的好局限啊,一下就压缩了
--【柒】--:
说明一个问题,就是起码近3年上下文长度很难突破1m,目前已经有大佬测试如果上下文超过300k 智力和专注力就会大大下降,所以我习惯性的就是plan设计完毕另起一个对话处理,这样返工更少
--【捌】--:
是的,现在改config也没用,还是显示上限是258k。
而且根据官方发出来的上下文效果,感觉上限设置在600k,500k自动压缩是一个甜点范围。
500k时都有80%左右的准确率
--【玖】--:
上下文 400K → 258K == (400K - 128K(输出+思考) * 0.95)
等同没改
--【拾】--:
400K = 258(input) + 128(output) + 冗余,5.4 没开 1M 的时候一直是这样的
--【拾壹】--:
5.4我也只开了500k强制压缩
不知道你们有没有感觉到,超过500k后指令遵循度断崖下降
--【拾贰】--:
应该是没有metadata的问题吧
--【拾叁】--:
image805×242 45.5 KB
--【拾肆】--:
5.5 是一个更大的模型,API 费用涨了 2 倍,Codex 上能保留之前 5.4 的 400K 已经不错了(况且 5.4 本身 >300K 都流口水,真的有人开 1M 吗…)
--【拾伍】--:
我开啊,我都是用到360k左右手动总结的……如果是258k那会在240k左右就自动总结,而且常常在任务进行到一半的时候自动压缩上下文,闹心……
--【拾陆】--:
真的,为啥codex只给258K的上下文,感觉真不够用

