codex gpt 5.5不支持高上下文,貌似只有258k

2026-04-29 09:471阅读0评论SEO资讯
  • 内容介绍
  • 文章标签
  • 相关推荐
问题描述:

image345×242 8.39 KB

然而我已经开了350k(刚刚还试过了512k / 1m)

model = "gpt-5.5" model_reasoning_effort = "xhigh" model_context_window = 350000 model_auto_compact_token_limit = 328000

然后看了今天的issue,发现貌似是模型问题而不是设置问题

GPT 5.5 发布后 1M 上下文窗口消失 · Issue #19208 · openai/codex — 1m context window gone after Gpt 5.5 Release. · Issue #19208 · openai/codex

config.toml 上下文窗口设置未被遵循 · Issue #19185 · openai/codex — config.toml context window settings are not respected · Issue #19185 · openai/codex

网友解答:
--【壹】--:

可以的 你改config.toml文件就可以打开了model_verbosity = “high”
model_context_window = 1000000
model_auto_compact_token_limit = 350000
tool_output_token_limit = 40000
model_reasoning_summary = “detailed”
personality = “friendly”


--【贰】--:

感觉是不是也够了呢,gpt不是说服务器端的上下文压缩基本不损失信息么


--【叁】--:

1m输入确实很重要,没有简直就是灾难…怎么配都配不出来


--【肆】--:

并非模型问题,目前1M只有API支持,订阅不支持。


--【伍】--:

很难受,只有256k上下文,即便你强行改成1M,但是如果超了,会直接报错,无法继续上下午


--【陆】--:

我觉得codex压缩很强,200多k用起来也很舒服了,1m有那么重要吗,还是说5.5比较特别


--【柒】--:

那怎么开API? 5.5 不支持1M的话用起来非常蛋疼


--【捌】--:

还是 cc的 4.6+ 1M 用起来爽呢


--【玖】--:

还得是1M才行,258很快就用完了,压缩和1m肯定还是有区别的


--【拾】--:

现在是很小,说是会慢慢加:

image1192×962 162 KB


--【拾壹】--:

之前我用5.4的时候(这个是名牌支持1M的吧)设置了这个也不管用


--【拾贰】--:

确实 我设置了但是 上下文也是258k
image360×185 12.9 KB


--【拾叁】--:

5.4 可以设置1m吗,之前没注意,今天在vsc内发现


--【拾肆】--:

正常的,5.5在codex中不支持1m,api支持,codex中默认只有400k上下文,258k输出+128k思考+其他冗余


--【拾伍】--:

为啥呀,1m有那么重要吗,主要是我觉得codex压缩很强,200多k用起来也很舒服了

问题描述:

image345×242 8.39 KB

然而我已经开了350k(刚刚还试过了512k / 1m)

model = "gpt-5.5" model_reasoning_effort = "xhigh" model_context_window = 350000 model_auto_compact_token_limit = 328000

然后看了今天的issue,发现貌似是模型问题而不是设置问题

GPT 5.5 发布后 1M 上下文窗口消失 · Issue #19208 · openai/codex — 1m context window gone after Gpt 5.5 Release. · Issue #19208 · openai/codex

config.toml 上下文窗口设置未被遵循 · Issue #19185 · openai/codex — config.toml context window settings are not respected · Issue #19185 · openai/codex

网友解答:
--【壹】--:

可以的 你改config.toml文件就可以打开了model_verbosity = “high”
model_context_window = 1000000
model_auto_compact_token_limit = 350000
tool_output_token_limit = 40000
model_reasoning_summary = “detailed”
personality = “friendly”


--【贰】--:

感觉是不是也够了呢,gpt不是说服务器端的上下文压缩基本不损失信息么


--【叁】--:

1m输入确实很重要,没有简直就是灾难…怎么配都配不出来


--【肆】--:

并非模型问题,目前1M只有API支持,订阅不支持。


--【伍】--:

很难受,只有256k上下文,即便你强行改成1M,但是如果超了,会直接报错,无法继续上下午


--【陆】--:

我觉得codex压缩很强,200多k用起来也很舒服了,1m有那么重要吗,还是说5.5比较特别


--【柒】--:

那怎么开API? 5.5 不支持1M的话用起来非常蛋疼


--【捌】--:

还是 cc的 4.6+ 1M 用起来爽呢


--【玖】--:

还得是1M才行,258很快就用完了,压缩和1m肯定还是有区别的


--【拾】--:

现在是很小,说是会慢慢加:

image1192×962 162 KB


--【拾壹】--:

之前我用5.4的时候(这个是名牌支持1M的吧)设置了这个也不管用


--【拾贰】--:

确实 我设置了但是 上下文也是258k
image360×185 12.9 KB


--【拾叁】--:

5.4 可以设置1m吗,之前没注意,今天在vsc内发现


--【拾肆】--:

正常的,5.5在codex中不支持1m,api支持,codex中默认只有400k上下文,258k输出+128k思考+其他冗余


--【拾伍】--:

为啥呀,1m有那么重要吗,主要是我觉得codex压缩很强,200多k用起来也很舒服了