有一说一 codex用superpower是不是慢的过于夸张了?

2026-04-11 12:091阅读0评论SEO教程
  • 内容介绍
  • 文章标签
  • 相关推荐
问题描述:

前段时间用superpower一个小功能最多1~2小时也就差不多了,自动更新了subagent,运行时间直接指数级增长,做一个小需求从早上9点跑到现在,一共9隔task才在第5个,真是夸张
image1239×451 133 KB
一等等一天,结果plan中聊的需求不是这里丢了就是那里丢了 服气

网友解答:
--【壹】--:

superpower肯定是好用,只是慢的夸张,就是有了subagent之后。不用subagent又担心污染上下文导致结果偏离


--【贰】--:

可以参考这位佬友分享的提示词 轻量优化版superpower


--【叁】--:

我现在是opencode+oh-my-openagent又怼上superpower


--【肆】--:

太多了也没必要吧


--【伍】--:

主要是太笨重


--【陆】--:

其实 superpower 是有用的,但是一定不要让它用 subagent 执行,还要提醒他不要过度设计,这样会好用十倍。


--【柒】--:

慢,因为要做各种plan,各种复查,规格复核,质量复核,还要修


--【捌】--:

把subagent单独关掉就行,就是这玩意慢得离谱


--【玖】--:

ecc太重了 就一般项目而言用不上那么多东西


--【拾】--:

太重了,给我搞的首次请求和后续请求全都慢的要死


--【拾壹】--:

长的夸张,一个小需求能干一整天


--【拾贰】--:

codex没必要子代理执行,费时费力,一个线程执行就行,codex上下文压缩很厉害,不太用担心上下文的问题


--【拾叁】--:

我之前也有用过 subagent, 但是结果就是原本线性只需要跑半个小时左右的任务,两个小时还没跑完


--【拾肆】--:

xhigh思考太多,我现在用high或者medium


--【拾伍】--:

是的,我也觉得十分长


--【拾陆】--:

确实会慢,它内部有各种机制,我一般使用ecc


--【拾柒】--:

实际上我的实践来说,最佳的是一个任务开一次新的对话窗口,然后让他用 inline 而不是 subagent,因为对上下文的理解是 gpt 系列模型最大的优势。


--【拾捌】--:

medium是真能给你写bug


--【拾玖】--:

我也尝试下恢复成线性执行,其实之前一直线性也没有出什么问题

问题描述:

前段时间用superpower一个小功能最多1~2小时也就差不多了,自动更新了subagent,运行时间直接指数级增长,做一个小需求从早上9点跑到现在,一共9隔task才在第5个,真是夸张
image1239×451 133 KB
一等等一天,结果plan中聊的需求不是这里丢了就是那里丢了 服气

网友解答:
--【壹】--:

superpower肯定是好用,只是慢的夸张,就是有了subagent之后。不用subagent又担心污染上下文导致结果偏离


--【贰】--:

可以参考这位佬友分享的提示词 轻量优化版superpower


--【叁】--:

我现在是opencode+oh-my-openagent又怼上superpower


--【肆】--:

太多了也没必要吧


--【伍】--:

主要是太笨重


--【陆】--:

其实 superpower 是有用的,但是一定不要让它用 subagent 执行,还要提醒他不要过度设计,这样会好用十倍。


--【柒】--:

慢,因为要做各种plan,各种复查,规格复核,质量复核,还要修


--【捌】--:

把subagent单独关掉就行,就是这玩意慢得离谱


--【玖】--:

ecc太重了 就一般项目而言用不上那么多东西


--【拾】--:

太重了,给我搞的首次请求和后续请求全都慢的要死


--【拾壹】--:

长的夸张,一个小需求能干一整天


--【拾贰】--:

codex没必要子代理执行,费时费力,一个线程执行就行,codex上下文压缩很厉害,不太用担心上下文的问题


--【拾叁】--:

我之前也有用过 subagent, 但是结果就是原本线性只需要跑半个小时左右的任务,两个小时还没跑完


--【拾肆】--:

xhigh思考太多,我现在用high或者medium


--【拾伍】--:

是的,我也觉得十分长


--【拾陆】--:

确实会慢,它内部有各种机制,我一般使用ecc


--【拾柒】--:

实际上我的实践来说,最佳的是一个任务开一次新的对话窗口,然后让他用 inline 而不是 subagent,因为对上下文的理解是 gpt 系列模型最大的优势。


--【拾捌】--:

medium是真能给你写bug


--【拾玖】--:

我也尝试下恢复成线性执行,其实之前一直线性也没有出什么问题