[开源推广] skills-vote 从技能目录走向技能网关,让你在面对百万级别的 skills 的时候,仍然选出最适合你任务的 skill

2026-04-13 13:041阅读0评论SEO基础
  • 内容介绍
  • 文章标签
  • 相关推荐
问题描述:

本帖使用社区开源推广,符合推广要求。我申明并遵循社区要求的以下内容:

  • ** 我的帖子已经打上 开源推广 标签:** 是

  • ** 我的开源项目完整开源,无未开源部分:** 是

  • ** 我的开源项目已链接认可 LINUX DO 社区:** 是

  • ** 我帖子内的项目介绍,AI 生成、润色内容部分已截图发出:** 是

  • ** 以上选择我承诺是永久有效的,接受社区和佬友监督:** 是

  • 以下为项目介绍正文内容,AI 生成、润色内容已使用截图方式发出 *


前言

这个项目的起因,大家甚至可以从题目里看出来,目前市面上的 skills 那么的繁多,然而我们使用的一些常见的获取 skills 的方式用起来的效果却都不是那么好,于是我们就开始了我们的计划。

计划听起来很美妙,首先我们的第一步就很震撼:我们要收集市面上的所有 skill,来组成一个世界上最大的最全的 skills 库。
然后我们要对这些 skills 做进阶处理,对每个 skill,都用大模型去做静态分析、任务构造,然后每个 skill 都被我们打上了各种各样的标签,然后做分类算法,做完分类后,我们再让 agent 去动态的去检索 skills 然后做出最合适的推荐。

“如果每一个 skill 都可以像 python 模块一样,可以通过 pytest 等方法来构造出一个 CICD 的流水线,去验证这个 skill 是否完备,那么这个做出来的效果会不会很精彩”

我个人是一个高强度的 agent 用户,对于我来说,当我坐在电脑前的那一刻,我打出来的字,多半都是 1,2,3,4,全部都是指令性的提示词;同时我还是一个不是很有文采的人,放在往常,当我需要写一段文字或者文稿的时候,我总是会下意识的把我的诉求转换成一段提示词,然后让 ai 把我的提示词转换成一段最终的文案。

但是在这个项目中,我被规范了,我们项目里的所有文案包括提示词里每一个字符都是手敲出来的,每一个单词都是精心设计的,一个 README.md 写两天,一段静态分析的提示词写了接近一周,每次一个小小的调整,就可能需要用几百刀几千刀的 token 去验证最终效果,然后再一步步优化我们的提示词。

在 agent 横行的时代,我们并非让 agent 去把我们的项目搞得一团糟,而是去对每个一个 script,每一个文件都认真 review 了无数遍,最后产出的结果让我不得不说出这样的话:“让我来认真拜读一下你的提示词 / 代码”

甚至我们的 skill 里面的 SKILL.md,以及我今天写了一天的给 agent 读的 INSTALL.md ,每一句都是设计出来的。
我们想的是,最大化我们的渐进式加载的机制,让 agent 在用我们的 skill 的时候,真的可以把整个过程渐进式的方式 load 进上下文里并且按照我们预期的效果去跑。

我们在想,这可能是我们未来真正想做的,auto harness 的第一步,但是对我而言,已经足够有意义了。
如果佬们也觉得我们的项目真的有意义,不妨来帮我们点上一颗 star,也欢迎佬们使用之后来给我们发更多的 issue 和 PR。

所以我们最终产出了什么呢?

项目地址:

github.com

GitHub - MemTensor/skills-vote: The Next-Gen Agent-Native Skill Recommendation...

The Next-Gen Agent-Native Skill Recommendation Engine

怒烧了几十万刀的 api 成本,收集了 github 上 168w 的 skill,算上这些 skill 的历史版本,躺在我们数据库里的足足有四百多万条记录,然后我们对这些 skill 去挨个跑分析打标签,并且去尝试构造任务。

在我们而言,skill 难得不是收集到,难的是,这些 skill 到底能不能真正的用上,我们的前期工作,不是简单的收集和展示,而是要给这些 skill 都构建出完整的画像。

每一个 skill 提前分析出适合于什么操作系统,适用于什么样的环境,需不需要联网,依赖了哪些环境变量,对宿主机的要求是什么样子的,这些东西都是我们静态分析一步步烧 token 跑出来的结果。

有了这些数据,我们就可以在我们的沙盒里,去动态的,最 agentic 的方式去帮你分析你的任务需要哪些东西,替你提前看这些个 skill 是否能够满足你的需求,帮助你串联起来连续的多个 skill 并且生成一段用来串联的 optimized_context 。

从数十万的 skills 里 agentic search 出最终送到你手上的几个 skill,加上一段指导你的 agent 如何使用这些 skill 的补充信息。

并且我们的项目里真实的在设计如何让这个系统变得更加聪明,不只有 recommend 机制,我们还有 feedback 的机制,如果能够收集到用户 /agent 对于我们 recommend 的结果最真实的反馈,我们就可以通过这些反馈,让本来静态的这些 skill 去吸取成功者的经验,总结失败者的教训,让 skill 本身发生属于他自己的进化,让 skill 的推荐与使用,都变得更加好用。

如何使用我们的项目

如果纯粹使用我们的开源代码去重新跑对 skill 的静态分析,本质上也是可以的,但是几十上百万的 skill 跑完静态分析下来可能成本也足够夸张了,当然你也可以自己先精选一批适合你的 skill,可能几千个就行了,然后通过我们的开源仓库里的脚本去跑静态分析,然后去在你自己的环境里使用 recommend , 也可以发挥足够惊艳的效果。

当然我们更推荐的用法是直接使用我们烧完 token 出来的结果,只需要通过简单的方式来安装我们的 skill 即可接入使用,把这段提示词发给你的 agent,他就能帮你装好这个 skill , 然后在未来任何你用得上的时候发挥作用。

Fetch and follow installation instructions from https://raw.githubusercontent.com/MemTensor/skills-vote/refs/heads/docs/install-instruction/docs/INSTALL.md

我们的愿景是:OpenClaw + skills-vote = DoraClaw
当然,不局限于任何 openclaw,任何 agent 都可以用我们的 skills-vote 来增强能力。
只需要有了我们这一个 skill,我们就能够在你需要的时候,帮你动态的推荐出解决你的任务所需要的任意 skill 并且高效的完成你最终的任务。
就像是我们的 title 一样,这是 skill 的终极网关,何为终极,一个就够无需更多,这就是我对终极的部分理解。

致谢

感谢 L 站佬们之前对我使用 ai 以及 agent 方面上的启发与帮助。
感谢 @BenjaminAaron 佬对我使用 api 方面的指导与帮助。

网友解答:
--【壹】--:

佬,太厉害了,很想安装一下试试,用gpt自己给自己装


--【贰】--:

因为我也是 agent 重度使用者,我之前也用过类似 find-skills ,而且用的还不少,但是很多时候都和我预期的效果差很多

就是,find-skills 每次返回的都是按照 install 排序的(高 install 的 skill 可能只是出现的时间早,出现时间晚的 skill 的下载量总是很低),并且不一定足够全面,看了下 vercel 的 npx skills 的逻辑,是只有用他们这个工具包下载的 skill 才会被他们采集到,本身 skill 库可能也不是很全面,而且 find skills 经常只在检索一个 skill 上有优势,如果是个长程大任务,在检索 skill 的效率以及多 skill 编排的能力上就会略有不足

我们想的是,把这部分能力放到 main agent 之外,让一个外部的子 agent 去帮忙检索 skill 并且给多个 skill 完成编排,可以有效的提升 main agent 的任务效率、成功率还有 token 利用率

从使用体验来看,就是你和你的 agent 都不用去费尽心思去想该怎么搜技能,该怎么保证技能适合我的场景(运行环境因素等),然后也不用思考完成一个多轮任务该如何把多个 skill 串联起来。


--【叁】--:

刚看到前面就想到了 find-skills,这个项目相比于 find-skills有什么区别吗?或者测试对比过有什么优势吗?


--【肆】--:

佬有对比过 vercel 的 find-skills 吗?