通过cpa把gpt接入cc使用,如何设置上下文?

2026-04-13 12:271阅读0评论SEO教程
  • 内容介绍
  • 文章标签
  • 相关推荐
问题描述:

如题,我参考
【貌似已解决!】CPA搞的gpt5.4 free怎么弄到CC里面使用并配置1M上下文和fast
的方法,将gpt通过cpa接入到了cc中使用,也能够设置思考等级、开启fast模型、使用1m上下文。
但是,gpt使用1m上下文效果很差,在codex中可以通过model_context_window设置上下文。我一般使用400k上下文(比默认的200k长,同时不会因为过长导致注意力下降)。
请问接入cc中如何设置上下文?

网友解答:
--【壹】--:

CLAUDE_CODE_AUTO_COMPACT_WINDOW

此环境变量设置用于自动压缩计算的上下文容量。

默认为模型的上下文窗口:标准模型为 200K,或扩展上下文模型为 1M。

在 1M 模型上使用较低的值(如 500000)可将窗口视为 500K 用于压缩目的。该值上限为模型的实际上下文窗口。

建议在env键里设置这个环境变量后,重启CC,选择你的1m模型,运行 /context 命令观察预留的自动压缩buffer大小,用1m减去此buffer值就是实际可用上下文。

Screenshot_2026-03-25-00-01-17-74_d1e86951cd1ffbfd48c9d66259aca94f1057×711 150 KB


--【贰】--:

CLAUDE_CODE_MAX_OUTPUT_TOKENS

设置大多数请求的最大输出令牌数。默认值和上限因模型而异;请参阅最大输出令牌。

增加此值会减少在自动压缩触发之前可用的有效上下文窗口。

建议也搭配使用这个环境变量。


--【叁】--:

谢谢。

阅读全文
问题描述:

如题,我参考
【貌似已解决!】CPA搞的gpt5.4 free怎么弄到CC里面使用并配置1M上下文和fast
的方法,将gpt通过cpa接入到了cc中使用,也能够设置思考等级、开启fast模型、使用1m上下文。
但是,gpt使用1m上下文效果很差,在codex中可以通过model_context_window设置上下文。我一般使用400k上下文(比默认的200k长,同时不会因为过长导致注意力下降)。
请问接入cc中如何设置上下文?

网友解答:
--【壹】--:

CLAUDE_CODE_AUTO_COMPACT_WINDOW

此环境变量设置用于自动压缩计算的上下文容量。

默认为模型的上下文窗口:标准模型为 200K,或扩展上下文模型为 1M。

在 1M 模型上使用较低的值(如 500000)可将窗口视为 500K 用于压缩目的。该值上限为模型的实际上下文窗口。

建议在env键里设置这个环境变量后,重启CC,选择你的1m模型,运行 /context 命令观察预留的自动压缩buffer大小,用1m减去此buffer值就是实际可用上下文。

Screenshot_2026-03-25-00-01-17-74_d1e86951cd1ffbfd48c9d66259aca94f1057×711 150 KB


--【贰】--:

CLAUDE_CODE_MAX_OUTPUT_TOKENS

设置大多数请求的最大输出令牌数。默认值和上限因模型而异;请参阅最大输出令牌。

增加此值会减少在自动压缩触发之前可用的有效上下文窗口。

建议也搭配使用这个环境变量。


--【叁】--:

谢谢。

阅读全文