通过cpa把gpt接入cc使用,如何设置上下文?
- 内容介绍
- 文章标签
- 相关推荐
如题,我参考
【貌似已解决!】CPA搞的gpt5.4 free怎么弄到CC里面使用并配置1M上下文和fast
的方法,将gpt通过cpa接入到了cc中使用,也能够设置思考等级、开启fast模型、使用1m上下文。
但是,gpt使用1m上下文效果很差,在codex中可以通过model_context_window设置上下文。我一般使用400k上下文(比默认的200k长,同时不会因为过长导致注意力下降)。
请问接入cc中如何设置上下文?
--【壹】--:
CLAUDE_CODE_AUTO_COMPACT_WINDOW
此环境变量设置用于自动压缩计算的上下文容量。
默认为模型的上下文窗口:标准模型为 200K,或扩展上下文模型为 1M。
在 1M 模型上使用较低的值(如 500000)可将窗口视为 500K 用于压缩目的。该值上限为模型的实际上下文窗口。
建议在env键里设置这个环境变量后,重启CC,选择你的1m模型,运行 /context 命令观察预留的自动压缩buffer大小,用1m减去此buffer值就是实际可用上下文。
Screenshot_2026-03-25-00-01-17-74_d1e86951cd1ffbfd48c9d66259aca94f1057×711 150 KB
--【贰】--:
CLAUDE_CODE_MAX_OUTPUT_TOKENS
设置大多数请求的最大输出令牌数。默认值和上限因模型而异;请参阅最大输出令牌。
增加此值会减少在自动压缩触发之前可用的有效上下文窗口。
建议也搭配使用这个环境变量。
--【叁】--:
谢谢。
自动压缩窗口在codex中可以通过model_auto_compact_token_limit来设置,请问接入cc之后如何设置?
--【肆】--:
CC中无法设置上下文窗口长度,只有普通的200k和1m两种。
建议关注状态栏,在使用1m模型时,接近400k上下文就手动开启新对话。
还有另一种办法,通过环境变量设置自动压缩的窗口,在使用1m模型时,达到400k就自动压缩。
如题,我参考
【貌似已解决!】CPA搞的gpt5.4 free怎么弄到CC里面使用并配置1M上下文和fast
的方法,将gpt通过cpa接入到了cc中使用,也能够设置思考等级、开启fast模型、使用1m上下文。
但是,gpt使用1m上下文效果很差,在codex中可以通过model_context_window设置上下文。我一般使用400k上下文(比默认的200k长,同时不会因为过长导致注意力下降)。
请问接入cc中如何设置上下文?
--【壹】--:
CLAUDE_CODE_AUTO_COMPACT_WINDOW
此环境变量设置用于自动压缩计算的上下文容量。
默认为模型的上下文窗口:标准模型为 200K,或扩展上下文模型为 1M。
在 1M 模型上使用较低的值(如 500000)可将窗口视为 500K 用于压缩目的。该值上限为模型的实际上下文窗口。
建议在env键里设置这个环境变量后,重启CC,选择你的1m模型,运行 /context 命令观察预留的自动压缩buffer大小,用1m减去此buffer值就是实际可用上下文。
Screenshot_2026-03-25-00-01-17-74_d1e86951cd1ffbfd48c9d66259aca94f1057×711 150 KB
--【贰】--:
CLAUDE_CODE_MAX_OUTPUT_TOKENS
设置大多数请求的最大输出令牌数。默认值和上限因模型而异;请参阅最大输出令牌。
增加此值会减少在自动压缩触发之前可用的有效上下文窗口。
建议也搭配使用这个环境变量。
--【叁】--:
谢谢。
自动压缩窗口在codex中可以通过model_auto_compact_token_limit来设置,请问接入cc之后如何设置?
--【肆】--:
CC中无法设置上下文窗口长度,只有普通的200k和1m两种。
建议关注状态栏,在使用1m模型时,接近400k上下文就手动开启新对话。
还有另一种办法,通过环境变量设置自动压缩的窗口,在使用1m模型时,达到400k就自动压缩。

