codex 使用cpa反代出来的 gpt-5.4 的xhigh问题
- 内容介绍
- 文章标签
- 相关推荐
我使用cpa 反代出来给 codex 用。我看到有人配置 cpa 内的模型为 gpt-5.4(xhigh) ,而我一直是用gpt-5.4 且在codex内配置了 xhigh ,这是否意味着我codex的config.toml内配置的 model_reasoning_effort = “xhigh” 并无效果?
网友解答:--【壹】--:
仅仅是界面好看而已,没有太多特殊的,同样的我也没用过claudecode cli
--【贰】--:
可以通过/model选择模型的思考深度
image1113×626 27.6 KB
--【叁】--: dao bu:
否意味着我codex的config.toml内配置的 model_reasoning_effort = “xhigh” 并无效果?
不是,设置模型为 gpt-5.4, model_reasoning_effort = “xhigh” 的效果跟 gpt-5.4(xhigh) 是一样的,只不过 gpt-5.4(xhigh)只是 cpa 帮你覆盖参数了
通过模型名括号设置思考量 | CLIProxyAPI
Wrap Gemini CLI, ChatGPT Codex, Claude Code, Qwen Code, iFlow as an OpenAI/Gemini/Claude/Codex compatible API service, allowing you to enjoy the free Gemini 2.5 Pro, GPT 5, Claude, Qwen model through API
--【肆】--:
我是codex app,用的桌面端,cli用不惯
--【伍】--:
没用过桌面端,cli有哪些方面让佬用不惯呢,下过一次桌面端还没用,佬可以讲讲吗
--【陆】--:
gpt-5.4 (xhigh) 配置成这样主要是给cc用的,cpa在系统内部会通过识别模型名称来判断思考等级,在codex里用不用这样配置 正常配置即可
我使用cpa 反代出来给 codex 用。我看到有人配置 cpa 内的模型为 gpt-5.4(xhigh) ,而我一直是用gpt-5.4 且在codex内配置了 xhigh ,这是否意味着我codex的config.toml内配置的 model_reasoning_effort = “xhigh” 并无效果?
网友解答:--【壹】--:
仅仅是界面好看而已,没有太多特殊的,同样的我也没用过claudecode cli
--【贰】--:
可以通过/model选择模型的思考深度
image1113×626 27.6 KB
--【叁】--: dao bu:
否意味着我codex的config.toml内配置的 model_reasoning_effort = “xhigh” 并无效果?
不是,设置模型为 gpt-5.4, model_reasoning_effort = “xhigh” 的效果跟 gpt-5.4(xhigh) 是一样的,只不过 gpt-5.4(xhigh)只是 cpa 帮你覆盖参数了
通过模型名括号设置思考量 | CLIProxyAPI
Wrap Gemini CLI, ChatGPT Codex, Claude Code, Qwen Code, iFlow as an OpenAI/Gemini/Claude/Codex compatible API service, allowing you to enjoy the free Gemini 2.5 Pro, GPT 5, Claude, Qwen model through API
--【肆】--:
我是codex app,用的桌面端,cli用不惯
--【伍】--:
没用过桌面端,cli有哪些方面让佬用不惯呢,下过一次桌面端还没用,佬可以讲讲吗
--【陆】--:
gpt-5.4 (xhigh) 配置成这样主要是给cc用的,cpa在系统内部会通过识别模型名称来判断思考等级,在codex里用不用这样配置 正常配置即可

