Claude Code中使用cpa逆向5.4,如何设置1M上下文?

2026-04-11 14:291阅读0评论SEO教程
  • 内容介绍
  • 文章标签
  • 相关推荐
问题描述:

有没有佬友知道在Claude Code中,使用cpa逆gpt-5.4,怎么设置1M上下文啊

网友解答:
--【壹】--:

主要是cc的compact太蠢了。或者有方法能够解决cc一compact就丢失很多上下文关键信息的问题也行。


--【贰】--:

通过cpa导出openai的gpt到cc(claude code)后,gpt的远程压缩不生效。


--【叁】--:

我试试去


--【肆】--:

codex新版!!
codex新版!!
codex新版!!
重要的话说三遍


--【伍】--:

这个本质上可以理解为是codex中的约束+oai的模型


--【陆】--:

gpt的远程压缩在cc里通常不生效。


--【柒】--:

捞针表明最佳上下文长度可能就是openai给你设定好的那个长度 你强行增加context window其实不如auto compact之后自然回答


--【捌】--:

{
“env”: {
“ANTHROPIC_AUTH_TOKEN”: “”,
“ANTHROPIC_BASE_URL”: “”,
“ANTHROPIC_DEFAULT_HAIKU_MODEL”: “gpt-5.4”,
“ANTHROPIC_DEFAULT_OPUS_MODEL”: “gpt-5.4(xhigh)[1m]”,
“ANTHROPIC_DEFAULT_SONNET_MODEL”: “gpt-5.4(high)”,
“ANTHROPIC_MODEL”: “gpt-5.4(xhigh)[1m]”,
“ANTHROPIC_REASONING_MODEL”: “gpt-5.4(xhigh)[1m]”
},
“model”: “opus”,
“skipDangerousModePermissionPrompt”: true
}
你试试,我这么设置是可以用的


--【玖】--:

我也有这个疑问来着


--【拾】--:

对啊,不是说了是codex新版引入的么


--【拾壹】--:

1M别人实测不太稳定,会掉记忆,还是不改比较好


--【拾贰】--:

想知道codex里强大的压缩能力是来自于oai的还是客户端的,担心换个cli压缩能力就拉了


--【拾叁】--:

看了挺多在codex中的教程,那问题是claude code中的好像没有,哈哈


--【拾肆】--:

cpa之前看别的帖子说,默认就是1m了


--【拾伍】--:
  1. CPA更新到最新版本(我的是v6.8.45)
  2. CCS配置,就是正常配置,在()中加思考等级
    image1386×597 37.1 KB

{ "alwaysThinkingEnabled": true, "env": { "ANTHROPIC_AUTH_TOKEN": "", "ANTHROPIC_BASE_URL": "", "ANTHROPIC_DEFAULT_HAIKU_MODEL": "gpt-5.4(medium)", "ANTHROPIC_DEFAULT_OPUS_MODEL": "gpt-5.4(xhigh)", "ANTHROPIC_DEFAULT_SONNET_MODEL": "gpt-5.4(xhigh)", "ANTHROPIC_MODEL": "gpt-5.4", "ANTHROPIC_REASONING_MODEL": "gpt-5.4(xhigh)", "HTTPS_PROXY": "http://127.0.0.1:7890", "HTTP_PROXY": "http://127.0.0.1:7890" }, "includeCoAuthoredBy": false, "model": "opus[1m]", "statusLine": { "command": "ccline", "padding": 0, "type": "command" } }

  1. CC更新最新版本,在CC中切换为1M模型,你刚刚已经映射过了
    image1611×528 23.4 KB
    切换
    image1715×303 15.2 KB

  2. 验证,问它一个问题,然后 /context 命令
    image1169×499 13.2 KB

/context 和 statusline 都能看到是1M上下文
image1604×776 47.6 KB

  1. 有佬说Codex官方在服务端限制了网页的上下文不是1M,因为大家CPA反代的都是普通账号,并且258K之后智力可能下降,在客户端配置可能是不生效的,这也有可能,佬自行分辨。

--【拾陆】--:

最好不要用1m


--【拾柒】--:

之前不是有帖子说了,codex新版引入了远程压缩


--【拾捌】--:

可以详细讲讲为什么嘛


--【拾玖】--:

新版引入远程压缩之前codex的压缩就很强,我比较疑惑的是这个压缩能力是来源codex cli还是oai

问题描述:

有没有佬友知道在Claude Code中,使用cpa逆gpt-5.4,怎么设置1M上下文啊

网友解答:
--【壹】--:

主要是cc的compact太蠢了。或者有方法能够解决cc一compact就丢失很多上下文关键信息的问题也行。


--【贰】--:

通过cpa导出openai的gpt到cc(claude code)后,gpt的远程压缩不生效。


--【叁】--:

我试试去


--【肆】--:

codex新版!!
codex新版!!
codex新版!!
重要的话说三遍


--【伍】--:

这个本质上可以理解为是codex中的约束+oai的模型


--【陆】--:

gpt的远程压缩在cc里通常不生效。


--【柒】--:

捞针表明最佳上下文长度可能就是openai给你设定好的那个长度 你强行增加context window其实不如auto compact之后自然回答


--【捌】--:

{
“env”: {
“ANTHROPIC_AUTH_TOKEN”: “”,
“ANTHROPIC_BASE_URL”: “”,
“ANTHROPIC_DEFAULT_HAIKU_MODEL”: “gpt-5.4”,
“ANTHROPIC_DEFAULT_OPUS_MODEL”: “gpt-5.4(xhigh)[1m]”,
“ANTHROPIC_DEFAULT_SONNET_MODEL”: “gpt-5.4(high)”,
“ANTHROPIC_MODEL”: “gpt-5.4(xhigh)[1m]”,
“ANTHROPIC_REASONING_MODEL”: “gpt-5.4(xhigh)[1m]”
},
“model”: “opus”,
“skipDangerousModePermissionPrompt”: true
}
你试试,我这么设置是可以用的


--【玖】--:

我也有这个疑问来着


--【拾】--:

对啊,不是说了是codex新版引入的么


--【拾壹】--:

1M别人实测不太稳定,会掉记忆,还是不改比较好


--【拾贰】--:

想知道codex里强大的压缩能力是来自于oai的还是客户端的,担心换个cli压缩能力就拉了


--【拾叁】--:

看了挺多在codex中的教程,那问题是claude code中的好像没有,哈哈


--【拾肆】--:

cpa之前看别的帖子说,默认就是1m了


--【拾伍】--:
  1. CPA更新到最新版本(我的是v6.8.45)
  2. CCS配置,就是正常配置,在()中加思考等级
    image1386×597 37.1 KB

{ "alwaysThinkingEnabled": true, "env": { "ANTHROPIC_AUTH_TOKEN": "", "ANTHROPIC_BASE_URL": "", "ANTHROPIC_DEFAULT_HAIKU_MODEL": "gpt-5.4(medium)", "ANTHROPIC_DEFAULT_OPUS_MODEL": "gpt-5.4(xhigh)", "ANTHROPIC_DEFAULT_SONNET_MODEL": "gpt-5.4(xhigh)", "ANTHROPIC_MODEL": "gpt-5.4", "ANTHROPIC_REASONING_MODEL": "gpt-5.4(xhigh)", "HTTPS_PROXY": "http://127.0.0.1:7890", "HTTP_PROXY": "http://127.0.0.1:7890" }, "includeCoAuthoredBy": false, "model": "opus[1m]", "statusLine": { "command": "ccline", "padding": 0, "type": "command" } }

  1. CC更新最新版本,在CC中切换为1M模型,你刚刚已经映射过了
    image1611×528 23.4 KB
    切换
    image1715×303 15.2 KB

  2. 验证,问它一个问题,然后 /context 命令
    image1169×499 13.2 KB

/context 和 statusline 都能看到是1M上下文
image1604×776 47.6 KB

  1. 有佬说Codex官方在服务端限制了网页的上下文不是1M,因为大家CPA反代的都是普通账号,并且258K之后智力可能下降,在客户端配置可能是不生效的,这也有可能,佬自行分辨。

--【拾陆】--:

最好不要用1m


--【拾柒】--:

之前不是有帖子说了,codex新版引入了远程压缩


--【拾捌】--:

可以详细讲讲为什么嘛


--【拾玖】--:

新版引入远程压缩之前codex的压缩就很强,我比较疑惑的是这个压缩能力是来源codex cli还是oai