claw vibe代替human vibe,3小时把softmax较torch.softmax性能提高到3倍以上!(N=2048)
- 内容介绍
- 文章标签
- 相关推荐
先看对比表(4060ti平台)
按 N 聚合后的中位 speedup(candidate vs torch)
| 场景 | N=128 | 256 | 512 | 1024 | 2048 | 4096 |
|---|---|---|---|---|---|---|
fp16 / none |
0.38x | 0.55x | 0.27x | 1.41x | 2.87x | 1.02x |
bf16 / none |
0.39x | 0.55x | 0.48x | 1.40x | 2.39x | 1.03x |
fp16 / pad |
0.78x | 1.13x | 2.00x | 3.07x | 3.72x | 2.40x |
bf16 / pad |
0.80x | 1.18x | 2.00x | 3.04x | 3.38x | 2.44x |
在我开发的全自动交付平台上,这是我的设置,我仅仅给了一句话的要求:
梳理目前softmax优化版本的sota,设计能超过当前sota的softmax优化版本,你自己运行并给出结果的对比。我的电脑是7950x+128g+4060ti16g
image907×758 57.4 KB
三小时内claw自动规划、验证了四轮,可以看到openclaw和codex之间的对话:
image711×513 45 KB
以及openclaw给我的交付(中途我什么都没有说,只在任务开始前按照上面那句话制定了任务)
image703×508 37.7 KB
现在,这个由claw vibe而不是human vibe产生的项目已经上传于我的仓库!
GitHub - LongWeihan/softmax-optimization: softmax优化 (TaskCaptain) — softmax kernel...
softmax优化 (TaskCaptain) — softmax kernel benchmarks + artifacts
前情提要:【3.11更新】连vibe coding都交给claw去做,三小时内softmax性能提高到三倍以上
网友解答:--【壹】--:
codex-long-running-harness这个仓库
--【贰】--:
不懂,但是感觉很厉害
不明觉厉
--【叁】--:
佬这个其实还有点麻烦的,因为不同的代码工具的风格还略有不同,我从Claude code迁移到codex的时候实测发现要调整的东西还挺多,opencode就更不好说了,我在知乎发了一个教程提到了这些,截图下来给你参考一下,祝顺利
image793×633 49.5 KB
--【肆】--:
膜拜佬,请问下佬,
这个是不是 = 用户自然语言发送给openclaw,openclaw自动拆分任务,然后调度codex【也可以替换opencode】去执行任务,最重要是好像实现了类似多agent的概念?
让用户简单的语言描述,在多agent中进行细化、迭代,用户可以通过web端查看演变过程?
--【伍】--:
谢谢导哥
--【陆】--:
是的佬,user和claw, claw和codex的交互、日志在ui上都看得到,就是佬理解的意思,而且现在这个工作也出了精神续作了,就在我主页里面最新的仓库,是把Anthropic harness工程迁移到了codex,harness的思路是完全一样的,codex我们小开发者也用得起。可能Anthropic的设计思路比我更科学hhh所以可以看看新的这个
--【柒】--:
谢谢佬,我觉得我太着急了,周末两天除了消耗token什么都没做成。
因为我想要的可能比较大,并且我没搞清楚思路就硬干。
我预期是:
user(飞书channel)自然语言描述
—>
openclaw接收后解析
—>(openclaw软架构层)
router解析是否已存在的业务【如果是,则需要去对应业务进行操作,否则就根据具体的需求来分析操作】
—>(openclaw软架构层)
分析并拆分任务,准备进入 claw vibe 工作流。【用户黑盒】
—>
完成任务后通知用户,用户进行验收。
佬如果有什么建议还麻烦你和我说下。
我现在准备搞清楚 openclaw 扮演的角色。
然后结合 opencode + oh my opencode 做开发。
--【捌】--:
有点东西的佬,那是不是理论上也可以喂某个领域的几个SOTA paper和code,让他自己想办法搞出个优化版本水论文了
点个star去
--【玖】--:
感谢佬的回复,我现在用的opencode,然后让它去前面[taskcaptain]的仓库学习然后改造,目前跑不通。我试下让它去看看你说的最新的哪个仓库。
--【拾】--:
自顶,我觉得已经是生产级了
--【拾壹】--:
这么狠。 人类科研的一小步,灌水自动化的一大步。
--【拾贰】--:
肯定是的,什么都可以做
先看对比表(4060ti平台)
按 N 聚合后的中位 speedup(candidate vs torch)
| 场景 | N=128 | 256 | 512 | 1024 | 2048 | 4096 |
|---|---|---|---|---|---|---|
fp16 / none |
0.38x | 0.55x | 0.27x | 1.41x | 2.87x | 1.02x |
bf16 / none |
0.39x | 0.55x | 0.48x | 1.40x | 2.39x | 1.03x |
fp16 / pad |
0.78x | 1.13x | 2.00x | 3.07x | 3.72x | 2.40x |
bf16 / pad |
0.80x | 1.18x | 2.00x | 3.04x | 3.38x | 2.44x |
在我开发的全自动交付平台上,这是我的设置,我仅仅给了一句话的要求:
梳理目前softmax优化版本的sota,设计能超过当前sota的softmax优化版本,你自己运行并给出结果的对比。我的电脑是7950x+128g+4060ti16g
image907×758 57.4 KB
三小时内claw自动规划、验证了四轮,可以看到openclaw和codex之间的对话:
image711×513 45 KB
以及openclaw给我的交付(中途我什么都没有说,只在任务开始前按照上面那句话制定了任务)
image703×508 37.7 KB
现在,这个由claw vibe而不是human vibe产生的项目已经上传于我的仓库!
GitHub - LongWeihan/softmax-optimization: softmax优化 (TaskCaptain) — softmax kernel...
softmax优化 (TaskCaptain) — softmax kernel benchmarks + artifacts
前情提要:【3.11更新】连vibe coding都交给claw去做,三小时内softmax性能提高到三倍以上
网友解答:--【壹】--:
codex-long-running-harness这个仓库
--【贰】--:
不懂,但是感觉很厉害
不明觉厉
--【叁】--:
佬这个其实还有点麻烦的,因为不同的代码工具的风格还略有不同,我从Claude code迁移到codex的时候实测发现要调整的东西还挺多,opencode就更不好说了,我在知乎发了一个教程提到了这些,截图下来给你参考一下,祝顺利
image793×633 49.5 KB
--【肆】--:
膜拜佬,请问下佬,
这个是不是 = 用户自然语言发送给openclaw,openclaw自动拆分任务,然后调度codex【也可以替换opencode】去执行任务,最重要是好像实现了类似多agent的概念?
让用户简单的语言描述,在多agent中进行细化、迭代,用户可以通过web端查看演变过程?
--【伍】--:
谢谢导哥
--【陆】--:
是的佬,user和claw, claw和codex的交互、日志在ui上都看得到,就是佬理解的意思,而且现在这个工作也出了精神续作了,就在我主页里面最新的仓库,是把Anthropic harness工程迁移到了codex,harness的思路是完全一样的,codex我们小开发者也用得起。可能Anthropic的设计思路比我更科学hhh所以可以看看新的这个
--【柒】--:
谢谢佬,我觉得我太着急了,周末两天除了消耗token什么都没做成。
因为我想要的可能比较大,并且我没搞清楚思路就硬干。
我预期是:
user(飞书channel)自然语言描述
—>
openclaw接收后解析
—>(openclaw软架构层)
router解析是否已存在的业务【如果是,则需要去对应业务进行操作,否则就根据具体的需求来分析操作】
—>(openclaw软架构层)
分析并拆分任务,准备进入 claw vibe 工作流。【用户黑盒】
—>
完成任务后通知用户,用户进行验收。
佬如果有什么建议还麻烦你和我说下。
我现在准备搞清楚 openclaw 扮演的角色。
然后结合 opencode + oh my opencode 做开发。
--【捌】--:
有点东西的佬,那是不是理论上也可以喂某个领域的几个SOTA paper和code,让他自己想办法搞出个优化版本水论文了
点个star去
--【玖】--:
感谢佬的回复,我现在用的opencode,然后让它去前面[taskcaptain]的仓库学习然后改造,目前跑不通。我试下让它去看看你说的最新的哪个仓库。
--【拾】--:
自顶,我觉得已经是生产级了
--【拾壹】--:
这么狠。 人类科研的一小步,灌水自动化的一大步。
--【拾贰】--:
肯定是的,什么都可以做

