爆肝了个Github项目…这次是 AI Agent 的 Harness Engineering
- 内容介绍
- 文章标签
- 相关推荐
本帖使用社区开源推广,符合推广要求。我申明并遵循社区要求的以下内容:
- 我的帖子已经打上 开源推广 标签: 是
- 我的开源项目完整开源,无未开源部分: 是
- 我的开源项目已链接认可 LINUX DO 社区: 是
- 我帖子内的项目介绍,AI生成、润色内容部分已截图发出: 是
- 以上选择我承诺是永久有效的,接受社区和佬友监督: 是
以下为项目介绍正文内容,AI生成、润色内容已使用截图方式发出
佬友们晚上好啊
最近在折腾 AI Agent,越搞越发现一个事:模型能力是重要的基础,但外面那一层壳也超重要!(也就是 harness)。但相关资料又散又杂,看着贼费劲。
所以俺清明节这几天,爆肝整理了一个:Awesome Harness Engineering
包括大量OpenAI/Anthropic的技术博客、有用的论文、开源项目、各种神奇的资源…
image1920×1634 453 KB
GitHub - ai-boost/awesome-harness-engineering · GitHub
(就是这个仓库了 )
主要干了这些事:
- 按模块拆清楚 Agent Harness:context / memory / tool / planning / eval / sandbox…
- 覆盖完整 agent loop:observe → plan → act → verify
- 工程导向资源:基本都有“怎么用”的视角
- 实战/案例/最佳实践:multi-agent、长任务、CI、权限、安全这些都有
- 模板 & checklist:AGENTS.md / PLAN.md / HARNESS_CHECKLIST
image1424×1728 306 KB
基本目标就是:把“怎么把 agent 搞稳定”这件事讲清楚
为啥搞这个?
说实话,一开始俺也以为:
“换个更强的模型就完事了吧?”
结果踩坑后发现完全不是这么回事:
- 同一个模型,不同 harness,效果能差一大截
- 很多失败不是模型问题,是:
- context 喂错了
- tool 设计烂
- loop 没收敛
- 没有 verification
仓库里有一句话俺挺认同的:
“Harness 是为了弥补模型做不到的东西”
这玩意儿其实才是工程里的大头。
目前现状
- 刚整理完第一版(还在疯狂补东西)
- 内容已经挺多了(尤其是 2026 新资源)
- 但说实话,有点担心:
- 会不会太偏工程
- 佬友们是不是更关心模型本身
想听听佬友们的想法
- 你们现在做 Agent,会专门设计 harness 吗?还是 mostly prompt + tools?
- 这个清单里你更关心哪一块?
- memory / planning / eval / multi-agent / sandbox?
- 有没有你觉得“特别关键但经常被忽略”的坑?
最后厚脸皮求个 Star
GitHub - ai-boost/awesome-harness-engineering
通过在 GitHub 上创建帐户来为 ai-boost/awesome-harness-engineering 开发做出贡献。
如果你也在折腾 Agent,或者被各种“不稳定”折磨过,
这个清单可能能帮你少踩点坑。
给个 就当是给俺续命了
网友解答:--【壹】--:
已star 研究一下能干啥用
--【贰】--:
2周之前,我也搞了个类似的repo:
GitHub - jiji262/awesome-harness-engineering: Awesome lists of Harness Engineering and AI Native...
Awesome lists of Harness Engineering and AI Native Engineering resources.
--【叁】--:
GitHub - thu-nmrc/OpenHarness: OpenHarness is a long-term, fully autonomous AI...
OpenHarness is a long-term, fully autonomous AI agent execution framework for OpenClaw built on the concept of Harness Engineering. It enables your AI to work tirelessly for you 24/7 with just a single command. syycy2021@gmail.com, From the Interdisciplinary Professor Shenyang Team at Tsinghua University
--【肆】--:
已star ,虽然信息很多,但是挺有帮助的,还是没有学够
--【伍】--:
可以可以
--【陆】--:
可以可以,明天给你加进来。
--【柒】--:
这玩意只适合那种非创造性的,重复性的,不然其他还是不要用这种好
--【捌】--:
感谢大佬
--【玖】--:
可能会更关心memory和planning吧,毕竟让模型如何接收到正确的信息,和做出正确的判断都有点费脑子。有时候选择性提供知识可能还真是必要的,就怕多余信息干扰大模型输出()
--【拾】--:
已码后面慢慢学习 佬友放假辛苦了
--【拾壹】--:
2周之前,我也搞了个类似的repo:
github上
jiji262/awesome-harness-engineering
--【拾贰】--:
已 Star
--【拾叁】--:
已start有时间看看
--【拾肆】--:
感谢分享
--【拾伍】--:
看了一眼,感觉信息太多了,有很多重复的设计在不通的文章中出现,选不过来了都
--【拾陆】--:
为佬友点赞
--【拾柒】--: yuanzhi:
看了一眼,感觉信息太多了,有很多重复的设计在不通的文章中出现,选不过来了都
好的,我想想怎么弄清晰一些,比如区分1个必读清单,其它没那么重要的分开放。
--【拾捌】--:
稳定大于一切 在模型基本能力够用的情况下 稳定输出就最重了 不要飘就是大哥
--【拾玖】--:
感谢,如果有相关优质资源也可以一起贡献,提个PR或者issue都可以
本帖使用社区开源推广,符合推广要求。我申明并遵循社区要求的以下内容:
- 我的帖子已经打上 开源推广 标签: 是
- 我的开源项目完整开源,无未开源部分: 是
- 我的开源项目已链接认可 LINUX DO 社区: 是
- 我帖子内的项目介绍,AI生成、润色内容部分已截图发出: 是
- 以上选择我承诺是永久有效的,接受社区和佬友监督: 是
以下为项目介绍正文内容,AI生成、润色内容已使用截图方式发出
佬友们晚上好啊
最近在折腾 AI Agent,越搞越发现一个事:模型能力是重要的基础,但外面那一层壳也超重要!(也就是 harness)。但相关资料又散又杂,看着贼费劲。
所以俺清明节这几天,爆肝整理了一个:Awesome Harness Engineering
包括大量OpenAI/Anthropic的技术博客、有用的论文、开源项目、各种神奇的资源…
image1920×1634 453 KB
GitHub - ai-boost/awesome-harness-engineering · GitHub
(就是这个仓库了 )
主要干了这些事:
- 按模块拆清楚 Agent Harness:context / memory / tool / planning / eval / sandbox…
- 覆盖完整 agent loop:observe → plan → act → verify
- 工程导向资源:基本都有“怎么用”的视角
- 实战/案例/最佳实践:multi-agent、长任务、CI、权限、安全这些都有
- 模板 & checklist:AGENTS.md / PLAN.md / HARNESS_CHECKLIST
image1424×1728 306 KB
基本目标就是:把“怎么把 agent 搞稳定”这件事讲清楚
为啥搞这个?
说实话,一开始俺也以为:
“换个更强的模型就完事了吧?”
结果踩坑后发现完全不是这么回事:
- 同一个模型,不同 harness,效果能差一大截
- 很多失败不是模型问题,是:
- context 喂错了
- tool 设计烂
- loop 没收敛
- 没有 verification
仓库里有一句话俺挺认同的:
“Harness 是为了弥补模型做不到的东西”
这玩意儿其实才是工程里的大头。
目前现状
- 刚整理完第一版(还在疯狂补东西)
- 内容已经挺多了(尤其是 2026 新资源)
- 但说实话,有点担心:
- 会不会太偏工程
- 佬友们是不是更关心模型本身
想听听佬友们的想法
- 你们现在做 Agent,会专门设计 harness 吗?还是 mostly prompt + tools?
- 这个清单里你更关心哪一块?
- memory / planning / eval / multi-agent / sandbox?
- 有没有你觉得“特别关键但经常被忽略”的坑?
最后厚脸皮求个 Star
GitHub - ai-boost/awesome-harness-engineering
通过在 GitHub 上创建帐户来为 ai-boost/awesome-harness-engineering 开发做出贡献。
如果你也在折腾 Agent,或者被各种“不稳定”折磨过,
这个清单可能能帮你少踩点坑。
给个 就当是给俺续命了
网友解答:--【壹】--:
已star 研究一下能干啥用
--【贰】--:
2周之前,我也搞了个类似的repo:
GitHub - jiji262/awesome-harness-engineering: Awesome lists of Harness Engineering and AI Native...
Awesome lists of Harness Engineering and AI Native Engineering resources.
--【叁】--:
GitHub - thu-nmrc/OpenHarness: OpenHarness is a long-term, fully autonomous AI...
OpenHarness is a long-term, fully autonomous AI agent execution framework for OpenClaw built on the concept of Harness Engineering. It enables your AI to work tirelessly for you 24/7 with just a single command. syycy2021@gmail.com, From the Interdisciplinary Professor Shenyang Team at Tsinghua University
--【肆】--:
已star ,虽然信息很多,但是挺有帮助的,还是没有学够
--【伍】--:
可以可以
--【陆】--:
可以可以,明天给你加进来。
--【柒】--:
这玩意只适合那种非创造性的,重复性的,不然其他还是不要用这种好
--【捌】--:
感谢大佬
--【玖】--:
可能会更关心memory和planning吧,毕竟让模型如何接收到正确的信息,和做出正确的判断都有点费脑子。有时候选择性提供知识可能还真是必要的,就怕多余信息干扰大模型输出()
--【拾】--:
已码后面慢慢学习 佬友放假辛苦了
--【拾壹】--:
2周之前,我也搞了个类似的repo:
github上
jiji262/awesome-harness-engineering
--【拾贰】--:
已 Star
--【拾叁】--:
已start有时间看看
--【拾肆】--:
感谢分享
--【拾伍】--:
看了一眼,感觉信息太多了,有很多重复的设计在不通的文章中出现,选不过来了都
--【拾陆】--:
为佬友点赞
--【拾柒】--: yuanzhi:
看了一眼,感觉信息太多了,有很多重复的设计在不通的文章中出现,选不过来了都
好的,我想想怎么弄清晰一些,比如区分1个必读清单,其它没那么重要的分开放。
--【拾捌】--:
稳定大于一切 在模型基本能力够用的情况下 稳定输出就最重了 不要飘就是大哥
--【拾玖】--:
感谢,如果有相关优质资源也可以一起贡献,提个PR或者issue都可以

