关于使用【冰の公益站】的疑问。秘钥配置环境 codex 和 claude 体验疑问

2026-04-11 14:171阅读0评论SEO问题
  • 内容介绍
  • 文章标签
  • 相关推荐
问题描述:

用上了冰佬的公益站。同样的需求,一个使用codex,一个使用claude。感觉claude完成效果比较好。看了一下模型 codex 使用的是 gpt-5.4,claude 使用的默认是opus-4-6。

请问其他佬友有这样的问题吗?还是说我使用的方式不正确呢?都是使用cli来开发需求的。

网友解答:
--【壹】--:

是这样的,GPT5.2时我用的就是Claude+Codex agent wrapper的组合方案


--【贰】--:

什么?冰佬还有Claude可以蹬??


--【叁】--:

可能是用的人多吧 就是响应比较慢


--【肆】--: Borges:

看了一下模型 codex 使用的是 gpt-5.4,claude 使用的默认是 opus-4-6

这是cpa映射的啊,你无论调用的Claude系列什么模型,都是路由到gpt,照你的说法,其实要说Claude效果好,好的是Claude code这个工具,而不是模型,因为在这种情形下,底模是一样的


--【伍】--:

我的上一版还停在协同时代,现在AGENTS是裸的


--【陆】--:

有没有可能opus-4.6是直接映射到gpt-5.4,哈哈哈


--【柒】--:

冰佬的站里不是只有gpt系列模型吗


--【捌】--: Borges:

连任务都完成不了

这是啥意思,我的codex没有问题啊,正常修改代码


--【玖】--: LlNUS:

AGENTS.md、skill

佬 能发下您用的prompt skill 吗?


--【拾】--: Borges:

冰佬的公益站

Borges:

gpt-5.4

Borges:

opus-4-6

这两个模型都是冰的吧?
好像思考强度不一样?
messages的固定为high
responses 的好像不是?


--【拾壹】--: Borges:

codex 端点是 /responses,推理强度 Xhigh

不是 有的是medium 好像
但是 不过大部分也是high


--【拾贰】--:

佬你的使用方法并无不妥,甚至可以基于当前的结果,灵活进行模型选用

———

各家的模型,甚至不同版本,使用效果确实是有差异的。

之前我记得就有文章写过,让Gemini写前端,Claude做规划,GPT做代码实现。
各司其职

当然后来可能模型版本迭代,也会有选择直接一个模型干到底的


--【拾叁】--: LlNUS:

Gemini写前端,Claude做规划,GPT做代码实现

公益站 现在很少用gemini的环境的。就目前冰佬的公益站而言,支持调用的方式只有codex 和claude


--【拾肆】--:

冰佬的claude是gpt映射的,可能claude cli的agent比较强的原因吧


--【拾伍】--:

看了下
claude 端点是 /v1/messages,推理强度 High,模型 claude-opus-4-6
codex 端点是 /responses,推理强度 Xhigh,模型 gpt-5.4;

按理来说应该是 codex 更强的吧?但体验却相反


--【拾陆】--:

自用 codex + mcp +superpowers 用起来效果也不错,就是慢一些


--【拾柒】--:

恩哈哈 谢谢啦~


--【拾捌】--:

所以目前来看,如果token允许,佬可以专注于claude 模型的使用啦。

不过GPT的表现不佳,可能是模型原因,也可能是上游等其他因素,hh
如果还想用,可以试着借助AGENTS.md、skill等对它做行为矫正


--【拾玖】--:

目前的情况是 codex 连任务都完成不了,中间需要操作好几次。claude 确认完需求后后续执行非常流畅顺利,需求完成度非常高。

问题描述:

用上了冰佬的公益站。同样的需求,一个使用codex,一个使用claude。感觉claude完成效果比较好。看了一下模型 codex 使用的是 gpt-5.4,claude 使用的默认是opus-4-6。

请问其他佬友有这样的问题吗?还是说我使用的方式不正确呢?都是使用cli来开发需求的。

网友解答:
--【壹】--:

是这样的,GPT5.2时我用的就是Claude+Codex agent wrapper的组合方案


--【贰】--:

什么?冰佬还有Claude可以蹬??


--【叁】--:

可能是用的人多吧 就是响应比较慢


--【肆】--: Borges:

看了一下模型 codex 使用的是 gpt-5.4,claude 使用的默认是 opus-4-6

这是cpa映射的啊,你无论调用的Claude系列什么模型,都是路由到gpt,照你的说法,其实要说Claude效果好,好的是Claude code这个工具,而不是模型,因为在这种情形下,底模是一样的


--【伍】--:

我的上一版还停在协同时代,现在AGENTS是裸的


--【陆】--:

有没有可能opus-4.6是直接映射到gpt-5.4,哈哈哈


--【柒】--:

冰佬的站里不是只有gpt系列模型吗


--【捌】--: Borges:

连任务都完成不了

这是啥意思,我的codex没有问题啊,正常修改代码


--【玖】--: LlNUS:

AGENTS.md、skill

佬 能发下您用的prompt skill 吗?


--【拾】--: Borges:

冰佬的公益站

Borges:

gpt-5.4

Borges:

opus-4-6

这两个模型都是冰的吧?
好像思考强度不一样?
messages的固定为high
responses 的好像不是?


--【拾壹】--: Borges:

codex 端点是 /responses,推理强度 Xhigh

不是 有的是medium 好像
但是 不过大部分也是high


--【拾贰】--:

佬你的使用方法并无不妥,甚至可以基于当前的结果,灵活进行模型选用

———

各家的模型,甚至不同版本,使用效果确实是有差异的。

之前我记得就有文章写过,让Gemini写前端,Claude做规划,GPT做代码实现。
各司其职

当然后来可能模型版本迭代,也会有选择直接一个模型干到底的


--【拾叁】--: LlNUS:

Gemini写前端,Claude做规划,GPT做代码实现

公益站 现在很少用gemini的环境的。就目前冰佬的公益站而言,支持调用的方式只有codex 和claude


--【拾肆】--:

冰佬的claude是gpt映射的,可能claude cli的agent比较强的原因吧


--【拾伍】--:

看了下
claude 端点是 /v1/messages,推理强度 High,模型 claude-opus-4-6
codex 端点是 /responses,推理强度 Xhigh,模型 gpt-5.4;

按理来说应该是 codex 更强的吧?但体验却相反


--【拾陆】--:

自用 codex + mcp +superpowers 用起来效果也不错,就是慢一些


--【拾柒】--:

恩哈哈 谢谢啦~


--【拾捌】--:

所以目前来看,如果token允许,佬可以专注于claude 模型的使用啦。

不过GPT的表现不佳,可能是模型原因,也可能是上游等其他因素,hh
如果还想用,可以试着借助AGENTS.md、skill等对它做行为矫正


--【拾玖】--:

目前的情况是 codex 连任务都完成不了,中间需要操作好几次。claude 确认完需求后后续执行非常流畅顺利,需求完成度非常高。