Claude Code中使用cpa逆向5.4,如何设置1M上下文?
- 内容介绍
- 文章标签
- 相关推荐
有没有佬友知道在Claude Code中,使用cpa逆gpt-5.4,怎么设置1M上下文啊
网友解答:--【壹】--:
主要是cc的compact太蠢了。或者有方法能够解决cc一compact就丢失很多上下文关键信息的问题也行。
--【贰】--:
通过cpa导出openai的gpt到cc(claude code)后,gpt的远程压缩不生效。
--【叁】--:
我试试去
--【肆】--:
codex新版!!
codex新版!!
codex新版!!
重要的话说三遍
--【伍】--:
这个本质上可以理解为是codex中的约束+oai的模型
--【陆】--:
gpt的远程压缩在cc里通常不生效。
--【柒】--:
捞针表明最佳上下文长度可能就是openai给你设定好的那个长度 你强行增加context window其实不如auto compact之后自然回答
--【捌】--:
{
“env”: {
“ANTHROPIC_AUTH_TOKEN”: “”,
“ANTHROPIC_BASE_URL”: “”,
“ANTHROPIC_DEFAULT_HAIKU_MODEL”: “gpt-5.4”,
“ANTHROPIC_DEFAULT_OPUS_MODEL”: “gpt-5.4(xhigh)[1m]”,
“ANTHROPIC_DEFAULT_SONNET_MODEL”: “gpt-5.4(high)”,
“ANTHROPIC_MODEL”: “gpt-5.4(xhigh)[1m]”,
“ANTHROPIC_REASONING_MODEL”: “gpt-5.4(xhigh)[1m]”
},
“model”: “opus”,
“skipDangerousModePermissionPrompt”: true
}
你试试,我这么设置是可以用的
--【玖】--:
我也有这个疑问来着
--【拾】--:
对啊,不是说了是codex新版引入的么
--【拾壹】--:
1M别人实测不太稳定,会掉记忆,还是不改比较好
--【拾贰】--:
想知道codex里强大的压缩能力是来自于oai的还是客户端的,担心换个cli压缩能力就拉了
--【拾叁】--:
看了挺多在codex中的教程,那问题是claude code中的好像没有,哈哈
--【拾肆】--:
cpa之前看别的帖子说,默认就是1m了
--【拾伍】--:
- CPA更新到最新版本(我的是v6.8.45)
- CCS配置,就是正常配置,在()中加思考等级
image1386×597 37.1 KB
{
"alwaysThinkingEnabled": true,
"env": {
"ANTHROPIC_AUTH_TOKEN": "",
"ANTHROPIC_BASE_URL": "",
"ANTHROPIC_DEFAULT_HAIKU_MODEL": "gpt-5.4(medium)",
"ANTHROPIC_DEFAULT_OPUS_MODEL": "gpt-5.4(xhigh)",
"ANTHROPIC_DEFAULT_SONNET_MODEL": "gpt-5.4(xhigh)",
"ANTHROPIC_MODEL": "gpt-5.4",
"ANTHROPIC_REASONING_MODEL": "gpt-5.4(xhigh)",
"HTTPS_PROXY": "http://127.0.0.1:7890",
"HTTP_PROXY": "http://127.0.0.1:7890"
},
"includeCoAuthoredBy": false,
"model": "opus[1m]",
"statusLine": {
"command": "ccline",
"padding": 0,
"type": "command"
}
}
-
CC更新最新版本,在CC中切换为1M模型,你刚刚已经映射过了
image1611×528 23.4 KB
切换
image1715×303 15.2 KB -
验证,问它一个问题,然后 /context 命令
image1169×499 13.2 KB
/context 和 statusline 都能看到是1M上下文
image1604×776 47.6 KB
- 有佬说Codex官方在服务端限制了网页的上下文不是1M,因为大家CPA反代的都是普通账号,并且258K之后智力可能下降,在客户端配置可能是不生效的,这也有可能,佬自行分辨。
--【拾陆】--:
最好不要用1m
--【拾柒】--:
之前不是有帖子说了,codex新版引入了远程压缩
--【拾捌】--:
可以详细讲讲为什么嘛
--【拾玖】--:
新版引入远程压缩之前codex的压缩就很强,我比较疑惑的是这个压缩能力是来源codex cli还是oai
有没有佬友知道在Claude Code中,使用cpa逆gpt-5.4,怎么设置1M上下文啊
网友解答:--【壹】--:
主要是cc的compact太蠢了。或者有方法能够解决cc一compact就丢失很多上下文关键信息的问题也行。
--【贰】--:
通过cpa导出openai的gpt到cc(claude code)后,gpt的远程压缩不生效。
--【叁】--:
我试试去
--【肆】--:
codex新版!!
codex新版!!
codex新版!!
重要的话说三遍
--【伍】--:
这个本质上可以理解为是codex中的约束+oai的模型
--【陆】--:
gpt的远程压缩在cc里通常不生效。
--【柒】--:
捞针表明最佳上下文长度可能就是openai给你设定好的那个长度 你强行增加context window其实不如auto compact之后自然回答
--【捌】--:
{
“env”: {
“ANTHROPIC_AUTH_TOKEN”: “”,
“ANTHROPIC_BASE_URL”: “”,
“ANTHROPIC_DEFAULT_HAIKU_MODEL”: “gpt-5.4”,
“ANTHROPIC_DEFAULT_OPUS_MODEL”: “gpt-5.4(xhigh)[1m]”,
“ANTHROPIC_DEFAULT_SONNET_MODEL”: “gpt-5.4(high)”,
“ANTHROPIC_MODEL”: “gpt-5.4(xhigh)[1m]”,
“ANTHROPIC_REASONING_MODEL”: “gpt-5.4(xhigh)[1m]”
},
“model”: “opus”,
“skipDangerousModePermissionPrompt”: true
}
你试试,我这么设置是可以用的
--【玖】--:
我也有这个疑问来着
--【拾】--:
对啊,不是说了是codex新版引入的么
--【拾壹】--:
1M别人实测不太稳定,会掉记忆,还是不改比较好
--【拾贰】--:
想知道codex里强大的压缩能力是来自于oai的还是客户端的,担心换个cli压缩能力就拉了
--【拾叁】--:
看了挺多在codex中的教程,那问题是claude code中的好像没有,哈哈
--【拾肆】--:
cpa之前看别的帖子说,默认就是1m了
--【拾伍】--:
- CPA更新到最新版本(我的是v6.8.45)
- CCS配置,就是正常配置,在()中加思考等级
image1386×597 37.1 KB
{
"alwaysThinkingEnabled": true,
"env": {
"ANTHROPIC_AUTH_TOKEN": "",
"ANTHROPIC_BASE_URL": "",
"ANTHROPIC_DEFAULT_HAIKU_MODEL": "gpt-5.4(medium)",
"ANTHROPIC_DEFAULT_OPUS_MODEL": "gpt-5.4(xhigh)",
"ANTHROPIC_DEFAULT_SONNET_MODEL": "gpt-5.4(xhigh)",
"ANTHROPIC_MODEL": "gpt-5.4",
"ANTHROPIC_REASONING_MODEL": "gpt-5.4(xhigh)",
"HTTPS_PROXY": "http://127.0.0.1:7890",
"HTTP_PROXY": "http://127.0.0.1:7890"
},
"includeCoAuthoredBy": false,
"model": "opus[1m]",
"statusLine": {
"command": "ccline",
"padding": 0,
"type": "command"
}
}
-
CC更新最新版本,在CC中切换为1M模型,你刚刚已经映射过了
image1611×528 23.4 KB
切换
image1715×303 15.2 KB -
验证,问它一个问题,然后 /context 命令
image1169×499 13.2 KB
/context 和 statusline 都能看到是1M上下文
image1604×776 47.6 KB
- 有佬说Codex官方在服务端限制了网页的上下文不是1M,因为大家CPA反代的都是普通账号,并且258K之后智力可能下降,在客户端配置可能是不生效的,这也有可能,佬自行分辨。
--【拾陆】--:
最好不要用1m
--【拾柒】--:
之前不是有帖子说了,codex新版引入了远程压缩
--【拾捌】--:
可以详细讲讲为什么嘛
--【拾玖】--:
新版引入远程压缩之前codex的压缩就很强,我比较疑惑的是这个压缩能力是来源codex cli还是oai

