GPT-5.5在claude code自定义400k上下文长度的方法

2026-04-29 08:101阅读0评论SEO教程
  • 内容介绍
  • 文章标签
  • 相关推荐
问题描述:

目前来看,gpt-5.5只有api调用才有满血1M上下文,从codex反代出来的只有400k窗口(其中272k输入来着?有佬友修正了实际可用是258k)
我尝试在claude code使用该模型,然而5.5没有100万上下文,强行设定的话会出问题(超出模型处理能力然后任务无法继续。。。)

然而我觉得400k虽然没那么多,但是也不至于经常触发窗口上限吧。。

结果就是用起来频繁压缩很头疼,以前用gpt-5.4的时候默认开了100万上下文(写[1M]后缀即可,现在的deepseek v4 pro如果开1M上下文也是这样干的),现在5.5虽然只有400k但是怎么这么快就压缩呢
然后使用/context指令才发现,只有200k上下文!!(claude code默认设置的上下文,他们只支持1m或者200k)

=====================================

经过查询和试错(期间我发现grok就算有网络搜索能力,给出的参数设置也是过时的,真正有效的数据还是gemini3.1pro结合谷歌搜索才找到的)

目前的结论是如下:

如果需要自定义模型在cc突破cc默认设置的200k上下文,同时又不至于到[1m]这种上下文,claude code官方设定必须让env里设定 DISABLE_COMPACT 为 1 才能生效,自动压缩以及压缩阈值autoCompactThreshold将失效,需注意手动压缩,否则超出上下文可能导致模型处理能力爆炸

.claude\settings.json的这部分示例如下:

“env”: {
“DISABLE_AUTOUPDATER”: “1”,
“CLAUDE_CODE_EFFORT_LEVEL”: “max”,
“ENABLE_TOOL_SEARCH”: “true”,
“CLAUDE_CODE_MAX_CONTEXT_TOKENS”: “400000”, //配置核心
“DISABLE_COMPACT”: “1”, //配置核心
“IS_SANDBOX”: “1”
},
“enabledPlugins”: {
“document-skills@anthropic-agent-skills”: true,
“superpowers@claude-plugins-official”: true
},
“hasCompletedOnboarding”: true,
“autoCompactThreshold”: “0.9”(这里只是示范我以前的自动压缩参数,前面已经设定了禁止压缩,所以这个参数实际上也会不工作)

如果佬友需要复制参数,记得去掉“//配置核心”,有可能导致claude认为配置文件有错误(在JSON文件的标准规范(RFC 8259)中是不支持注释的)

以上只是针对这样一个需求提供一种办法,如果佬友有更好的办法来控制就再好不过啦。
我codex和claude都用,有时候只是想试试在claude code里用gpt的感觉))
效果图如下:
image573×258 7 KB

====
再次更新:
坏了,我发现这个会直接把/compact指令禁用了,自己手动压缩都不行,要怎么办呢))坏

或许我们不管上面的设置(把上面的“配置核心”参数都删掉),
可以试试伪装模型为100万的模型,然后把自动压缩阈值设为258000之类的?(取自佬友)
比如
“autoCompactEnabled”: true,
“autoCompactWindow”: 258000,
“model”: “opus[1m]”

然后指定opus是gpt5.5即可(env里写ANTHROPIC_DEFAULT_OPUS_MODEL=gpt-5.5)

网友解答:
--【壹】--:

支持,最好设定950000自动压缩一下避免爆掉,codex官方自己设的也是950000


--【贰】--:

我试了直接映射opus1m,然后自动压缩设置258k,也能突破200k限制自动压缩

"CLAUDE_CODE_AUTO_COMPACT_WINDOW": "258000",


--【叁】--:

佬牛逼,晚上回去改下看看,再次谢谢佬分享


--【肆】--:

这样改完上下文到多少会自动压缩?258k吗


--【伍】--:

佬说得对,设置了[1m] 爆掉了就不理我了,我还以为是bug


--【陆】--:

我观察到直接在hermes里使用也没有1m,经常会compact


--【柒】--:

实际可用上下文是258k input,128k output,14k留给compact


--【捌】--:

佬,请问gpt-5.4反代codex应该是支持1M上下文的吧?


--【玖】--:

感谢大佬分享经验,这个确实会把compact指令禁用!

问题描述:

目前来看,gpt-5.5只有api调用才有满血1M上下文,从codex反代出来的只有400k窗口(其中272k输入来着?有佬友修正了实际可用是258k)
我尝试在claude code使用该模型,然而5.5没有100万上下文,强行设定的话会出问题(超出模型处理能力然后任务无法继续。。。)

然而我觉得400k虽然没那么多,但是也不至于经常触发窗口上限吧。。

结果就是用起来频繁压缩很头疼,以前用gpt-5.4的时候默认开了100万上下文(写[1M]后缀即可,现在的deepseek v4 pro如果开1M上下文也是这样干的),现在5.5虽然只有400k但是怎么这么快就压缩呢
然后使用/context指令才发现,只有200k上下文!!(claude code默认设置的上下文,他们只支持1m或者200k)

=====================================

经过查询和试错(期间我发现grok就算有网络搜索能力,给出的参数设置也是过时的,真正有效的数据还是gemini3.1pro结合谷歌搜索才找到的)

目前的结论是如下:

如果需要自定义模型在cc突破cc默认设置的200k上下文,同时又不至于到[1m]这种上下文,claude code官方设定必须让env里设定 DISABLE_COMPACT 为 1 才能生效,自动压缩以及压缩阈值autoCompactThreshold将失效,需注意手动压缩,否则超出上下文可能导致模型处理能力爆炸

.claude\settings.json的这部分示例如下:

“env”: {
“DISABLE_AUTOUPDATER”: “1”,
“CLAUDE_CODE_EFFORT_LEVEL”: “max”,
“ENABLE_TOOL_SEARCH”: “true”,
“CLAUDE_CODE_MAX_CONTEXT_TOKENS”: “400000”, //配置核心
“DISABLE_COMPACT”: “1”, //配置核心
“IS_SANDBOX”: “1”
},
“enabledPlugins”: {
“document-skills@anthropic-agent-skills”: true,
“superpowers@claude-plugins-official”: true
},
“hasCompletedOnboarding”: true,
“autoCompactThreshold”: “0.9”(这里只是示范我以前的自动压缩参数,前面已经设定了禁止压缩,所以这个参数实际上也会不工作)

如果佬友需要复制参数,记得去掉“//配置核心”,有可能导致claude认为配置文件有错误(在JSON文件的标准规范(RFC 8259)中是不支持注释的)

以上只是针对这样一个需求提供一种办法,如果佬友有更好的办法来控制就再好不过啦。
我codex和claude都用,有时候只是想试试在claude code里用gpt的感觉))
效果图如下:
image573×258 7 KB

====
再次更新:
坏了,我发现这个会直接把/compact指令禁用了,自己手动压缩都不行,要怎么办呢))坏

或许我们不管上面的设置(把上面的“配置核心”参数都删掉),
可以试试伪装模型为100万的模型,然后把自动压缩阈值设为258000之类的?(取自佬友)
比如
“autoCompactEnabled”: true,
“autoCompactWindow”: 258000,
“model”: “opus[1m]”

然后指定opus是gpt5.5即可(env里写ANTHROPIC_DEFAULT_OPUS_MODEL=gpt-5.5)

网友解答:
--【壹】--:

支持,最好设定950000自动压缩一下避免爆掉,codex官方自己设的也是950000


--【贰】--:

我试了直接映射opus1m,然后自动压缩设置258k,也能突破200k限制自动压缩

"CLAUDE_CODE_AUTO_COMPACT_WINDOW": "258000",


--【叁】--:

佬牛逼,晚上回去改下看看,再次谢谢佬分享


--【肆】--:

这样改完上下文到多少会自动压缩?258k吗


--【伍】--:

佬说得对,设置了[1m] 爆掉了就不理我了,我还以为是bug


--【陆】--:

我观察到直接在hermes里使用也没有1m,经常会compact


--【柒】--:

实际可用上下文是258k input,128k output,14k留给compact


--【捌】--:

佬,请问gpt-5.4反代codex应该是支持1M上下文的吧?


--【玖】--:

感谢大佬分享经验,这个确实会把compact指令禁用!