在Codex插件Codex App中使用CPA,模型怎么更换不了?
- 内容介绍
- 文章标签
- 相关推荐
问题描述:
--【壹】--:
--【贰】--:
--【叁】--:
--【肆】--:
--【伍】--:
在Codex插件/Codex App中使用CPA,模型怎么更换不了? 修改了config.toml (TOML)配置, 是可以正常请求CPA的, 但是模型就是固定的了, 有办法和原来一样, 自己手动切不同模型吗?
网友解答:--【壹】--:
是的, 我也是这样
--【贰】--:
恩 主要就是导到cpa呀
--【叁】--:
是的, 老哥, 你自己注册机搞的账号吗
--【肆】--:
model = “gpt-5.4”
model_reasoning_effort = “xhigh”
我把配置文件原来的这个配置删了,直接替换成cpa的那个了,所以用的默认就是5.4,不过还是看着有点奇怪
--【伍】--:
你是不是和我一样
image296×176 5.59 KB
换不了模型
问题描述:
--【壹】--:
--【贰】--:
--【叁】--:
--【肆】--:
--【伍】--:
在Codex插件/Codex App中使用CPA,模型怎么更换不了? 修改了config.toml (TOML)配置, 是可以正常请求CPA的, 但是模型就是固定的了, 有办法和原来一样, 自己手动切不同模型吗?
网友解答:--【壹】--:
是的, 我也是这样
--【贰】--:
恩 主要就是导到cpa呀
--【叁】--:
是的, 老哥, 你自己注册机搞的账号吗
--【肆】--:
model = “gpt-5.4”
model_reasoning_effort = “xhigh”
我把配置文件原来的这个配置删了,直接替换成cpa的那个了,所以用的默认就是5.4,不过还是看着有点奇怪
--【伍】--:
你是不是和我一样
image296×176 5.59 KB
换不了模型

