codex gpt 5.5不支持高上下文,貌似只有258k
- 内容介绍
- 文章标签
- 相关推荐
image345×242 8.39 KB
然而我已经开了350k(刚刚还试过了512k / 1m)
model = "gpt-5.5"
model_reasoning_effort = "xhigh"
model_context_window = 350000
model_auto_compact_token_limit = 328000
然后看了今天的issue,发现貌似是模型问题而不是设置问题
GPT 5.5 发布后 1M 上下文窗口消失 · Issue #19208 · openai/codex — 1m context window gone after Gpt 5.5 Release. · Issue #19208 · openai/codex
config.toml 上下文窗口设置未被遵循 · Issue #19185 · openai/codex — config.toml context window settings are not respected · Issue #19185 · openai/codex
网友解答:--【壹】--:
可以的 你改config.toml文件就可以打开了model_verbosity = “high”
model_context_window = 1000000
model_auto_compact_token_limit = 350000
tool_output_token_limit = 40000
model_reasoning_summary = “detailed”
personality = “friendly”
--【贰】--:
感觉是不是也够了呢,gpt不是说服务器端的上下文压缩基本不损失信息么
--【叁】--:
1m输入确实很重要,没有简直就是灾难…怎么配都配不出来
--【肆】--: <
image345×242 8.39 KB
然而我已经开了350k(刚刚还试过了512k / 1m)
model = "gpt-5.5"
model_reasoning_effort = "xhigh"
model_context_window = 350000
model_auto_compact_token_limit = 328000
然后看了今天的issue,发现貌似是模型问题而不是设置问题
GPT 5.5 发布后 1M 上下文窗口消失 · Issue #19208 · openai/codex — 1m context window gone after Gpt 5.5 Release. · Issue #19208 · openai/codex
config.toml 上下文窗口设置未被遵循 · Issue #19185 · openai/codex — config.toml context window settings are not respected · Issue #19185 · openai/codex
网友解答:--【壹】--:
可以的 你改config.toml文件就可以打开了model_verbosity = “high”
model_context_window = 1000000
model_auto_compact_token_limit = 350000
tool_output_token_limit = 40000
model_reasoning_summary = “detailed”
personality = “friendly”
--【贰】--:
感觉是不是也够了呢,gpt不是说服务器端的上下文压缩基本不损失信息么
--【叁】--:
1m输入确实很重要,没有简直就是灾难…怎么配都配不出来
--【肆】--: <

