关于使用【冰の公益站】的疑问。秘钥配置环境 codex 和 claude 体验疑问
- 内容介绍
- 文章标签
- 相关推荐
用上了冰佬的公益站。同样的需求,一个使用codex,一个使用claude。感觉claude完成效果比较好。看了一下模型 codex 使用的是 gpt-5.4,claude 使用的默认是opus-4-6。
请问其他佬友有这样的问题吗?还是说我使用的方式不正确呢?都是使用cli来开发需求的。
网友解答:--【壹】--:
是这样的,GPT5.2时我用的就是Claude+Codex agent wrapper的组合方案
--【贰】--:
什么?冰佬还有Claude可以蹬??
--【叁】--:
可能是用的人多吧 就是响应比较慢
--【肆】--: Borges:
看了一下模型 codex 使用的是 gpt-5.4,claude 使用的默认是 opus-4-6
这是cpa映射的啊,你无论调用的Claude系列什么模型,都是路由到gpt,照你的说法,其实要说Claude效果好,好的是Claude code这个工具,而不是模型,因为在这种情形下,底模是一样的
--【伍】--:
我的上一版还停在协同时代,现在AGENTS是裸的
--【陆】--:
有没有可能opus-4.6是直接映射到gpt-5.4,哈哈哈
--【柒】--:
冰佬的站里不是只有gpt系列模型吗
--【捌】--: Borges:
连任务都完成不了
这是啥意思,我的codex没有问题啊,正常修改代码
--【玖】--: LlNUS:
AGENTS.md、skill
佬 能发下您用的prompt skill 吗?
--【拾】--: Borges:
Borges:冰佬的公益站
Borges:gpt-5.4
opus-4-6
这两个模型都是冰的吧?
好像思考强度不一样?
messages的固定为high
responses 的好像不是?
--【拾壹】--: Borges:
codex 端点是
/responses,推理强度Xhigh
不是 有的是medium 好像
但是 不过大部分也是high
--【拾贰】--:
佬你的使用方法并无不妥,甚至可以基于当前的结果,灵活进行模型选用
———
各家的模型,甚至不同版本,使用效果确实是有差异的。
之前我记得就有文章写过,让Gemini写前端,Claude做规划,GPT做代码实现。
各司其职
当然后来可能模型版本迭代,也会有选择直接一个模型干到底的
--【拾叁】--: LlNUS:
Gemini写前端,Claude做规划,GPT做代码实现
公益站 现在很少用gemini的环境的。就目前冰佬的公益站而言,支持调用的方式只有codex 和claude
--【拾肆】--:
冰佬的claude是gpt映射的,可能claude cli的agent比较强的原因吧
--【拾伍】--:
看了下
claude 端点是 /v1/messages,推理强度 High,模型 claude-opus-4-6;
codex 端点是 /responses,推理强度 Xhigh,模型 gpt-5.4;
按理来说应该是 codex 更强的吧?但体验却相反
--【拾陆】--:
自用 codex + mcp +superpowers 用起来效果也不错,就是慢一些
--【拾柒】--:
恩哈哈 谢谢啦~
--【拾捌】--:
所以目前来看,如果token允许,佬可以专注于claude 模型的使用啦。
不过GPT的表现不佳,可能是模型原因,也可能是上游等其他因素,hh
如果还想用,可以试着借助AGENTS.md、skill等对它做行为矫正
--【拾玖】--:
目前的情况是 codex 连任务都完成不了,中间需要操作好几次。claude 确认完需求后后续执行非常流畅顺利,需求完成度非常高。
用上了冰佬的公益站。同样的需求,一个使用codex,一个使用claude。感觉claude完成效果比较好。看了一下模型 codex 使用的是 gpt-5.4,claude 使用的默认是opus-4-6。
请问其他佬友有这样的问题吗?还是说我使用的方式不正确呢?都是使用cli来开发需求的。
网友解答:--【壹】--:
是这样的,GPT5.2时我用的就是Claude+Codex agent wrapper的组合方案
--【贰】--:
什么?冰佬还有Claude可以蹬??
--【叁】--:
可能是用的人多吧 就是响应比较慢
--【肆】--: Borges:
看了一下模型 codex 使用的是 gpt-5.4,claude 使用的默认是 opus-4-6
这是cpa映射的啊,你无论调用的Claude系列什么模型,都是路由到gpt,照你的说法,其实要说Claude效果好,好的是Claude code这个工具,而不是模型,因为在这种情形下,底模是一样的
--【伍】--:
我的上一版还停在协同时代,现在AGENTS是裸的
--【陆】--:
有没有可能opus-4.6是直接映射到gpt-5.4,哈哈哈
--【柒】--:
冰佬的站里不是只有gpt系列模型吗
--【捌】--: Borges:
连任务都完成不了
这是啥意思,我的codex没有问题啊,正常修改代码
--【玖】--: LlNUS:
AGENTS.md、skill
佬 能发下您用的prompt skill 吗?
--【拾】--: Borges:
Borges:冰佬的公益站
Borges:gpt-5.4
opus-4-6
这两个模型都是冰的吧?
好像思考强度不一样?
messages的固定为high
responses 的好像不是?
--【拾壹】--: Borges:
codex 端点是
/responses,推理强度Xhigh
不是 有的是medium 好像
但是 不过大部分也是high
--【拾贰】--:
佬你的使用方法并无不妥,甚至可以基于当前的结果,灵活进行模型选用
———
各家的模型,甚至不同版本,使用效果确实是有差异的。
之前我记得就有文章写过,让Gemini写前端,Claude做规划,GPT做代码实现。
各司其职
当然后来可能模型版本迭代,也会有选择直接一个模型干到底的
--【拾叁】--: LlNUS:
Gemini写前端,Claude做规划,GPT做代码实现
公益站 现在很少用gemini的环境的。就目前冰佬的公益站而言,支持调用的方式只有codex 和claude
--【拾肆】--:
冰佬的claude是gpt映射的,可能claude cli的agent比较强的原因吧
--【拾伍】--:
看了下
claude 端点是 /v1/messages,推理强度 High,模型 claude-opus-4-6;
codex 端点是 /responses,推理强度 Xhigh,模型 gpt-5.4;
按理来说应该是 codex 更强的吧?但体验却相反
--【拾陆】--:
自用 codex + mcp +superpowers 用起来效果也不错,就是慢一些
--【拾柒】--:
恩哈哈 谢谢啦~
--【拾捌】--:
所以目前来看,如果token允许,佬可以专注于claude 模型的使用啦。
不过GPT的表现不佳,可能是模型原因,也可能是上游等其他因素,hh
如果还想用,可以试着借助AGENTS.md、skill等对它做行为矫正
--【拾玖】--:
目前的情况是 codex 连任务都完成不了,中间需要操作好几次。claude 确认完需求后后续执行非常流畅顺利,需求完成度非常高。

