关于GPT5.5在Codex app中的上下文问题?
- 内容介绍
- 文章标签
- 相关推荐
GPT5.5在Codex app中疑似开不了1m上下文?我改完config了,GPT5.4是可以正常触发1m的(ui界面显示950k),但是GPT5.5死活都是258k……。
我看oai网页介绍说5.5给Codex开放了400k上下文,但是我调整到400k之后,GPT5.5依旧显示258k且会自动压缩。
好像挺多佬友和我一个情况的?大家都是这样吗
16dad82ad5f33d054da37d06ab21f7f31814×810 101 KB
--【壹】--:
啊?就是说5.5只能用258k啊?OpenAI在逗我玩吗
--【贰】--:
image1512×352 40.8 KB
OpenAI 也跟 claude 学坏了,只有 API 才能用1M的上下文
--【叁】--:
5.5 官网文档说的在codex中只有400K吧
--【肆】--:
这个注意力codex只给258k太出生了点吧
--【伍】--:
这不改1m有点亏吧
image1903×1248 189 KB
--【陆】--:
后续会把上下文放宽到1m吗,不然现在这样用的好局限啊,一下就压缩了
--【柒】--:
说明一个问题,就是起码近3年上下文长度很难突破1m,目前已经有大佬测试如果上下文超过300k 智力和专注力就会大大下降,所以我习惯性的就是plan设计完毕另起一个对话处理,这样返工更少
--【捌】--:
是的,现在改config也没用,还是显示上限是258k。
而且根据官方发出来的上下文效果,感觉上限设置在600k,500k自动压缩是一个甜点范围。
GPT5.5在Codex app中疑似开不了1m上下文?我改完config了,GPT5.4是可以正常触发1m的(ui界面显示950k),但是GPT5.5死活都是258k……。
我看oai网页介绍说5.5给Codex开放了400k上下文,但是我调整到400k之后,GPT5.5依旧显示258k且会自动压缩。
好像挺多佬友和我一个情况的?大家都是这样吗
16dad82ad5f33d054da37d06ab21f7f31814×810 101 KB
--【壹】--:
啊?就是说5.5只能用258k啊?OpenAI在逗我玩吗
--【贰】--:
image1512×352 40.8 KB
OpenAI 也跟 claude 学坏了,只有 API 才能用1M的上下文
--【叁】--:
5.5 官网文档说的在codex中只有400K吧
--【肆】--:
这个注意力codex只给258k太出生了点吧
--【伍】--:
这不改1m有点亏吧
image1903×1248 189 KB
--【陆】--:
后续会把上下文放宽到1m吗,不然现在这样用的好局限啊,一下就压缩了
--【柒】--:
说明一个问题,就是起码近3年上下文长度很难突破1m,目前已经有大佬测试如果上下文超过300k 智力和专注力就会大大下降,所以我习惯性的就是plan设计完毕另起一个对话处理,这样返工更少
--【捌】--:
是的,现在改config也没用,还是显示上限是258k。
而且根据官方发出来的上下文效果,感觉上限设置在600k,500k自动压缩是一个甜点范围。

