codex的正确打开方式,体验超过claude!

2026-04-29 09:483阅读0评论SEO问题
  • 内容介绍
  • 文章标签
  • 相关推荐
问题描述:

众所周知

  • codex性能好,便宜,但是不会说人话
  • 国模便宜,会说人话,但是性能一般
  • claude性能好,会说人话,但是贵
    有没有办法打破不可能三角呢?有的兄弟有的!

## 外置大脑(对于codex自己,请忽略此章节) Codex 是你的外置大脑。当你遇到高难度问题——例如复杂系统级 bug 定位、大规模代码库的深度分析、架构设计权衡、或者任何你觉得需要超长上下文和深度推理才能解决的问题时,**不要自己进行长时间的深度思考,而是优先调用 Codex 来替你完成熟悉项目、分析问题和推理的过程**。 ### 调用方式 在第一次调用,你应该确认 `codex`是否存在,如果存在: 通过 Shell 执行: ``` codex exec "<详细的任务描述,替换此处的引号内容>" --dangerously-bypass-approvals-and-sandbox ``` - 将 `"hello"` 替换为对该次任务的具体、完整的描述(包括背景、目标、已知线索)。 - Codex 在完成分析后会自动退出,**不需要设置显式的 timeout**。 ### 输出处理(重要限制) - **除非用户要求,永远不要将 Codex 的原始输出直接展示给用户**。 - 收到 Codex 返回的结果后,你必须先自行阅读、理解、梳理和提炼。 - 然后用更简洁、结构清晰、用户友好的方式重新组织内容,再向用户汇报。 - 如果 Codex 的输出中有代码片段或关键文件路径,确认其准确性后再引用。

只需要把上述内容粘贴到AGENTS.md/CLAUDE.md
并使用国模驱动之,就可以获得一个同时:

说人话,性能好,最终成本还低

的超级agent!本质上是国模帮你理解了codex的抽象语言,同时利用codex避免了国模复杂问题解决能力不足的问题;而且这样还能避免国模的上下文爆炸(效果类似subagent)。

网友解答:
--【壹】--:

请教能否用在 ooenclaw 上呢?


--【贰】--:

用这个的话,有没有什么方法吃到这个kimi专武的20倍呢


--【叁】--:

codex有Claude code的官方插件,我也是类似的提示词,然后我的是codex是主脑,Claude是副脑,副脑负责执行,和提出方案与主脑讨论
然后我的提示词专门针对官方插件的命令做了一点儿优化


--【肆】--:

所以原理就是国模接入cc,调用codex的mcp是吗?但是有个最大的问题是国模也不知道要去调codex


--【伍】--:

站里有佬友做了一个hello2cc的claude code插件,装上之后国模、gpt接入cc后都会变得非常像claude 原生,体验下来不错,你可以试试。


--【陆】--:

都没上下文说毛呢,难道靠国模每次自己总结提炼吗


--【柒】--:

我感觉在cc里面用gpt5.4比codex里面好用一点,不如在cc用国模


--【捌】--:

为什么不直接使用高效的Amp code,一次性拉无数个gpt起来干活

image1610×1232 77.8 KB


--【玖】--:

因为gpt不讲人话,国模负责的是中译中,从而绕开gpt的伪人发言风格


--【拾】--:

不错不错,回头搞到我的openclaw里测试一下效果


--【拾壹】--:

使用codex exec的方式会不会让codex每次都新开一个对话窗口来干活?还是说国模帮着把前面的信息给补充了?


--【拾贰】--:

我是给gemini需求,然后把它的回答让豆包的专家模型中译中成开发规范,再把它导出md给codex,每一次修改都要这样,感觉好麻烦。
但是起码比给codex,gemini,豆包单独去修改效果要好,但是感觉有点麻烦。
请问佬有没有更方便的方式


--【拾叁】--:

那为什么不直接在claudcode使用gpt-5.4?


--【拾肆】--:

这。。。那国模的作用是啥捏。 我感觉国模也分不太清除要不要调用codex吧 没太懂


--【拾伍】--:

好家伙,给 codex 配了个中译中是吧


--【拾陆】--:

有类似的项目,就是让claude code使用codex(gpt自己都出了这个skill吧)。

另一个思路我帖子里有,让codex自己调用cc润色。


--【拾柒】--:

反正是干活用的,不说人话也不至于这样套一层吧,虽然还挺酷


--【拾捌】--:

能不能让5.4变成说人话,不啰嗦,直接到重点。


--【拾玖】--:

主要起到说人话的作用
其次就是简单问题不用多想直接出,复杂问题也能做一下简单的拆解

标签:人工智能
问题描述:

众所周知

  • codex性能好,便宜,但是不会说人话
  • 国模便宜,会说人话,但是性能一般
  • claude性能好,会说人话,但是贵
    有没有办法打破不可能三角呢?有的兄弟有的!

## 外置大脑(对于codex自己,请忽略此章节) Codex 是你的外置大脑。当你遇到高难度问题——例如复杂系统级 bug 定位、大规模代码库的深度分析、架构设计权衡、或者任何你觉得需要超长上下文和深度推理才能解决的问题时,**不要自己进行长时间的深度思考,而是优先调用 Codex 来替你完成熟悉项目、分析问题和推理的过程**。 ### 调用方式 在第一次调用,你应该确认 `codex`是否存在,如果存在: 通过 Shell 执行: ``` codex exec "<详细的任务描述,替换此处的引号内容>" --dangerously-bypass-approvals-and-sandbox ``` - 将 `"hello"` 替换为对该次任务的具体、完整的描述(包括背景、目标、已知线索)。 - Codex 在完成分析后会自动退出,**不需要设置显式的 timeout**。 ### 输出处理(重要限制) - **除非用户要求,永远不要将 Codex 的原始输出直接展示给用户**。 - 收到 Codex 返回的结果后,你必须先自行阅读、理解、梳理和提炼。 - 然后用更简洁、结构清晰、用户友好的方式重新组织内容,再向用户汇报。 - 如果 Codex 的输出中有代码片段或关键文件路径,确认其准确性后再引用。

只需要把上述内容粘贴到AGENTS.md/CLAUDE.md
并使用国模驱动之,就可以获得一个同时:

说人话,性能好,最终成本还低

的超级agent!本质上是国模帮你理解了codex的抽象语言,同时利用codex避免了国模复杂问题解决能力不足的问题;而且这样还能避免国模的上下文爆炸(效果类似subagent)。

网友解答:
--【壹】--:

请教能否用在 ooenclaw 上呢?


--【贰】--:

用这个的话,有没有什么方法吃到这个kimi专武的20倍呢


--【叁】--:

codex有Claude code的官方插件,我也是类似的提示词,然后我的是codex是主脑,Claude是副脑,副脑负责执行,和提出方案与主脑讨论
然后我的提示词专门针对官方插件的命令做了一点儿优化


--【肆】--:

所以原理就是国模接入cc,调用codex的mcp是吗?但是有个最大的问题是国模也不知道要去调codex


--【伍】--:

站里有佬友做了一个hello2cc的claude code插件,装上之后国模、gpt接入cc后都会变得非常像claude 原生,体验下来不错,你可以试试。


--【陆】--:

都没上下文说毛呢,难道靠国模每次自己总结提炼吗


--【柒】--:

我感觉在cc里面用gpt5.4比codex里面好用一点,不如在cc用国模


--【捌】--:

为什么不直接使用高效的Amp code,一次性拉无数个gpt起来干活

image1610×1232 77.8 KB


--【玖】--:

因为gpt不讲人话,国模负责的是中译中,从而绕开gpt的伪人发言风格


--【拾】--:

不错不错,回头搞到我的openclaw里测试一下效果


--【拾壹】--:

使用codex exec的方式会不会让codex每次都新开一个对话窗口来干活?还是说国模帮着把前面的信息给补充了?


--【拾贰】--:

我是给gemini需求,然后把它的回答让豆包的专家模型中译中成开发规范,再把它导出md给codex,每一次修改都要这样,感觉好麻烦。
但是起码比给codex,gemini,豆包单独去修改效果要好,但是感觉有点麻烦。
请问佬有没有更方便的方式


--【拾叁】--:

那为什么不直接在claudcode使用gpt-5.4?


--【拾肆】--:

这。。。那国模的作用是啥捏。 我感觉国模也分不太清除要不要调用codex吧 没太懂


--【拾伍】--:

好家伙,给 codex 配了个中译中是吧


--【拾陆】--:

有类似的项目,就是让claude code使用codex(gpt自己都出了这个skill吧)。

另一个思路我帖子里有,让codex自己调用cc润色。


--【拾柒】--:

反正是干活用的,不说人话也不至于这样套一层吧,虽然还挺酷


--【拾捌】--:

能不能让5.4变成说人话,不啰嗦,直接到重点。


--【拾玖】--:

主要起到说人话的作用
其次就是简单问题不用多想直接出,复杂问题也能做一下简单的拆解

标签:人工智能