codex的正确打开方式,体验超过claude!
- 内容介绍
- 文章标签
- 相关推荐
众所周知
- codex性能好,便宜,但是不会说人话
- 国模便宜,会说人话,但是性能一般
- claude性能好,会说人话,但是贵
有没有办法打破不可能三角呢?有的兄弟有的!
## 外置大脑(对于codex自己,请忽略此章节)
Codex 是你的外置大脑。当你遇到高难度问题——例如复杂系统级 bug 定位、大规模代码库的深度分析、架构设计权衡、或者任何你觉得需要超长上下文和深度推理才能解决的问题时,**不要自己进行长时间的深度思考,而是优先调用 Codex 来替你完成熟悉项目、分析问题和推理的过程**。
### 调用方式
在第一次调用,你应该确认 `codex`是否存在,如果存在:
通过 Shell 执行:
```
codex exec "<详细的任务描述,替换此处的引号内容>" --dangerously-bypass-approvals-and-sandbox
```
- 将 `"hello"` 替换为对该次任务的具体、完整的描述(包括背景、目标、已知线索)。
- Codex 在完成分析后会自动退出,**不需要设置显式的 timeout**。
### 输出处理(重要限制)
- **除非用户要求,永远不要将 Codex 的原始输出直接展示给用户**。
- 收到 Codex 返回的结果后,你必须先自行阅读、理解、梳理和提炼。
- 然后用更简洁、结构清晰、用户友好的方式重新组织内容,再向用户汇报。
- 如果 Codex 的输出中有代码片段或关键文件路径,确认其准确性后再引用。
只需要把上述内容粘贴到AGENTS.md/CLAUDE.md
并使用国模驱动之,就可以获得一个同时:
说人话,性能好,最终成本还低
的超级agent!本质上是国模帮你理解了codex的抽象语言,同时利用codex避免了国模复杂问题解决能力不足的问题;而且这样还能避免国模的上下文爆炸(效果类似subagent)。
网友解答:--【壹】--:
请教能否用在 ooenclaw 上呢?
--【贰】--:
用这个的话,有没有什么方法吃到这个kimi专武的20倍呢
--【叁】--:
codex有Claude code的官方插件,我也是类似的提示词,然后我的是codex是主脑,Claude是副脑,副脑负责执行,和提出方案与主脑讨论
然后我的提示词专门针对官方插件的命令做了一点儿优化
--【肆】--:
所以原理就是国模接入cc,调用codex的mcp是吗?但是有个最大的问题是国模也不知道要去调codex
--【伍】--:
站里有佬友做了一个hello2cc的claude code插件,装上之后国模、gpt接入cc后都会变得非常像claude 原生,体验下来不错,你可以试试。
--【陆】--:
都没上下文说毛呢,难道靠国模每次自己总结提炼吗
--【柒】--:
我感觉在cc里面用gpt5.4比codex里面好用一点,不如在cc用国模
--【捌】--:
为什么不直接使用高效的Amp code,一次性拉无数个gpt起来干活
image1610×1232 77.8 KB
--【玖】--:
因为gpt不讲人话,国模负责的是中译中,从而绕开gpt的伪人发言风格
--【拾】--:
不错不错,回头搞到我的openclaw里测试一下效果
--【拾壹】--:
使用codex exec的方式会不会让codex每次都新开一个对话窗口来干活?还是说国模帮着把前面的信息给补充了?
--【拾贰】--:
我是给gemini需求,然后把它的回答让豆包的专家模型中译中成开发规范,再把它导出md给codex,每一次修改都要这样,感觉好麻烦。
但是起码比给codex,gemini,豆包单独去修改效果要好,但是感觉有点麻烦。
请问佬有没有更方便的方式
--【拾叁】--:
那为什么不直接在claudcode使用gpt-5.4?
--【拾肆】--:
这。。。那国模的作用是啥捏。 我感觉国模也分不太清除要不要调用codex吧 没太懂
--【拾伍】--:
好家伙,给 codex 配了个中译中是吧
--【拾陆】--:
有类似的项目,就是让claude code使用codex(gpt自己都出了这个skill吧)。
另一个思路我帖子里有,让codex自己调用cc润色。
--【拾柒】--:
反正是干活用的,不说人话也不至于这样套一层吧,虽然还挺酷
--【拾捌】--:
能不能让5.4变成说人话,不啰嗦,直接到重点。
--【拾玖】--:
主要起到说人话的作用
其次就是简单问题不用多想直接出,复杂问题也能做一下简单的拆解
众所周知
- codex性能好,便宜,但是不会说人话
- 国模便宜,会说人话,但是性能一般
- claude性能好,会说人话,但是贵
有没有办法打破不可能三角呢?有的兄弟有的!
## 外置大脑(对于codex自己,请忽略此章节)
Codex 是你的外置大脑。当你遇到高难度问题——例如复杂系统级 bug 定位、大规模代码库的深度分析、架构设计权衡、或者任何你觉得需要超长上下文和深度推理才能解决的问题时,**不要自己进行长时间的深度思考,而是优先调用 Codex 来替你完成熟悉项目、分析问题和推理的过程**。
### 调用方式
在第一次调用,你应该确认 `codex`是否存在,如果存在:
通过 Shell 执行:
```
codex exec "<详细的任务描述,替换此处的引号内容>" --dangerously-bypass-approvals-and-sandbox
```
- 将 `"hello"` 替换为对该次任务的具体、完整的描述(包括背景、目标、已知线索)。
- Codex 在完成分析后会自动退出,**不需要设置显式的 timeout**。
### 输出处理(重要限制)
- **除非用户要求,永远不要将 Codex 的原始输出直接展示给用户**。
- 收到 Codex 返回的结果后,你必须先自行阅读、理解、梳理和提炼。
- 然后用更简洁、结构清晰、用户友好的方式重新组织内容,再向用户汇报。
- 如果 Codex 的输出中有代码片段或关键文件路径,确认其准确性后再引用。
只需要把上述内容粘贴到AGENTS.md/CLAUDE.md
并使用国模驱动之,就可以获得一个同时:
说人话,性能好,最终成本还低
的超级agent!本质上是国模帮你理解了codex的抽象语言,同时利用codex避免了国模复杂问题解决能力不足的问题;而且这样还能避免国模的上下文爆炸(效果类似subagent)。
网友解答:--【壹】--:
请教能否用在 ooenclaw 上呢?
--【贰】--:
用这个的话,有没有什么方法吃到这个kimi专武的20倍呢
--【叁】--:
codex有Claude code的官方插件,我也是类似的提示词,然后我的是codex是主脑,Claude是副脑,副脑负责执行,和提出方案与主脑讨论
然后我的提示词专门针对官方插件的命令做了一点儿优化
--【肆】--:
所以原理就是国模接入cc,调用codex的mcp是吗?但是有个最大的问题是国模也不知道要去调codex
--【伍】--:
站里有佬友做了一个hello2cc的claude code插件,装上之后国模、gpt接入cc后都会变得非常像claude 原生,体验下来不错,你可以试试。
--【陆】--:
都没上下文说毛呢,难道靠国模每次自己总结提炼吗
--【柒】--:
我感觉在cc里面用gpt5.4比codex里面好用一点,不如在cc用国模
--【捌】--:
为什么不直接使用高效的Amp code,一次性拉无数个gpt起来干活
image1610×1232 77.8 KB
--【玖】--:
因为gpt不讲人话,国模负责的是中译中,从而绕开gpt的伪人发言风格
--【拾】--:
不错不错,回头搞到我的openclaw里测试一下效果
--【拾壹】--:
使用codex exec的方式会不会让codex每次都新开一个对话窗口来干活?还是说国模帮着把前面的信息给补充了?
--【拾贰】--:
我是给gemini需求,然后把它的回答让豆包的专家模型中译中成开发规范,再把它导出md给codex,每一次修改都要这样,感觉好麻烦。
但是起码比给codex,gemini,豆包单独去修改效果要好,但是感觉有点麻烦。
请问佬有没有更方便的方式
--【拾叁】--:
那为什么不直接在claudcode使用gpt-5.4?
--【拾肆】--:
这。。。那国模的作用是啥捏。 我感觉国模也分不太清除要不要调用codex吧 没太懂
--【拾伍】--:
好家伙,给 codex 配了个中译中是吧
--【拾陆】--:
有类似的项目,就是让claude code使用codex(gpt自己都出了这个skill吧)。
另一个思路我帖子里有,让codex自己调用cc润色。
--【拾柒】--:
反正是干活用的,不说人话也不至于这样套一层吧,虽然还挺酷
--【拾捌】--:
能不能让5.4变成说人话,不啰嗦,直接到重点。
--【拾玖】--:
主要起到说人话的作用
其次就是简单问题不用多想直接出,复杂问题也能做一下简单的拆解

