codex gpt 5.5不支持高上下文,貌似只有258k
- 内容介绍
- 文章标签
- 相关推荐
image345×242 8.39 KB
然而我已经开了350k(刚刚还试过了512k / 1m)
model = "gpt-5.5"
model_reasoning_effort = "xhigh"
model_context_window = 350000
model_auto_compact_token_limit = 328000
然后看了今天的issue,发现貌似是模型问题而不是设置问题
GPT 5.5 发布后 1M 上下文窗口消失 · Issue #19208 · openai/codex — 1m context window gone after Gpt 5.5 Release. · Issue #19208 · openai/codex
config.toml 上下文窗口设置未被遵循 · Issue #19185 · openai/codex — config.toml context window settings are not respected · Issue #19185 · openai/codex
网友解答:--【壹】--:
可以的 你改config.toml文件就可以打开了model_verbosity = “high”
model_context_window = 1000000
model_auto_compact_token_limit = 350000
tool_output_token_limit = 40000
model_reasoning_summary = “detailed”
personality = “friendly”
--【贰】--:
感觉是不是也够了呢,gpt不是说服务器端的上下文压缩基本不损失信息么
--【叁】--:
1m输入确实很重要,没有简直就是灾难…怎么配都配不出来
--【肆】--:
并非模型问题,目前1M只有API支持,订阅不支持。
--【伍】--:
很难受,只有256k上下文,即便你强行改成1M,但是如果超了,会直接报错,无法继续上下午
--【陆】--:
我觉得codex压缩很强,200多k用起来也很舒服了,1m有那么重要吗,还是说5.5比较特别
--【柒】--:
那怎么开API? 5.5 不支持1M的话用起来非常蛋疼
--【捌】--:
还是 cc的 4.6+ 1M 用起来爽呢
--【玖】--:
还得是1M才行,258很快就用完了,压缩和1m肯定还是有区别的
--【拾】--:
现在是很小,说是会慢慢加:
image1192×962 162 KB
--【拾壹】--:
之前我用5.4的时候(这个是名牌支持1M的吧)设置了这个也不管用
--【拾贰】--:
确实 我设置了但是 上下文也是258k
image360×185 12.9 KB
--【拾叁】--:
5.4 可以设置1m吗,之前没注意,今天在vsc内发现
--【拾肆】--:
正常的,5.5在codex中不支持1m,api支持,codex中默认只有400k上下文,258k输出+128k思考+其他冗余
--【拾伍】--:
为啥呀,1m有那么重要吗,主要是我觉得codex压缩很强,200多k用起来也很舒服了
image345×242 8.39 KB
然而我已经开了350k(刚刚还试过了512k / 1m)
model = "gpt-5.5"
model_reasoning_effort = "xhigh"
model_context_window = 350000
model_auto_compact_token_limit = 328000
然后看了今天的issue,发现貌似是模型问题而不是设置问题
GPT 5.5 发布后 1M 上下文窗口消失 · Issue #19208 · openai/codex — 1m context window gone after Gpt 5.5 Release. · Issue #19208 · openai/codex
config.toml 上下文窗口设置未被遵循 · Issue #19185 · openai/codex — config.toml context window settings are not respected · Issue #19185 · openai/codex
网友解答:--【壹】--:
可以的 你改config.toml文件就可以打开了model_verbosity = “high”
model_context_window = 1000000
model_auto_compact_token_limit = 350000
tool_output_token_limit = 40000
model_reasoning_summary = “detailed”
personality = “friendly”
--【贰】--:
感觉是不是也够了呢,gpt不是说服务器端的上下文压缩基本不损失信息么
--【叁】--:
1m输入确实很重要,没有简直就是灾难…怎么配都配不出来
--【肆】--:
并非模型问题,目前1M只有API支持,订阅不支持。
--【伍】--:
很难受,只有256k上下文,即便你强行改成1M,但是如果超了,会直接报错,无法继续上下午
--【陆】--:
我觉得codex压缩很强,200多k用起来也很舒服了,1m有那么重要吗,还是说5.5比较特别
--【柒】--:
那怎么开API? 5.5 不支持1M的话用起来非常蛋疼
--【捌】--:
还是 cc的 4.6+ 1M 用起来爽呢
--【玖】--:
还得是1M才行,258很快就用完了,压缩和1m肯定还是有区别的
--【拾】--:
现在是很小,说是会慢慢加:
image1192×962 162 KB
--【拾壹】--:
之前我用5.4的时候(这个是名牌支持1M的吧)设置了这个也不管用
--【拾贰】--:
确实 我设置了但是 上下文也是258k
image360×185 12.9 KB
--【拾叁】--:
5.4 可以设置1m吗,之前没注意,今天在vsc内发现
--【拾肆】--:
正常的,5.5在codex中不支持1m,api支持,codex中默认只有400k上下文,258k输出+128k思考+其他冗余
--【拾伍】--:
为啥呀,1m有那么重要吗,主要是我觉得codex压缩很强,200多k用起来也很舒服了

