让你的 openclaw 拥有 search expert 级的多源高质量搜索能力(已接入 Grok)
- 内容介绍
- 文章标签
- 相关推荐
前两天在站里推荐了下我的 github 调研 skill,当时有佬问搜索那块是怎么做的,这次单独拿出来讲讲。
和 openclaw 一起写了个 skill,让 AI 帮我做 Github 项目调研 开发调优逛论坛还有 X 时经常刷到不错 Github 项目,很多时候想对这个项目进行进一步了解,但是受限于手机不是很方便,大部分时候的流程都是: 点开 README → 好长 → 翻到底 → 看 Stars 数 → 嗯还行 → 点个 star → 关掉,等以后用电脑再仔细看看 且不说大部分时候后面就忘记这回事了,就算记起来了想对这个 Github 项目有进一步了解需要耗费大量时间去各种渠道(…
openclaw-search-skills 它做了什么?
四个搜索引擎并行跑,按你的查询意图自动调策略,结果去重合并后按权威性+新鲜度+关键词匹配度排序。
具体来说,包含三个 skill:
| Skill | 干什么 |
|---|---|
| search-layer | 核心搜索层。Brave + Exa + Tavily + Grok 四源并行,意图感知评分 |
| content-extract | URL → 干净 Markdown。反爬站点(微信公众号、知乎)自动降级到 MinerU |
| mineru-extract | MinerU API 封装,PDF/Office/HTML 都能转 Markdown |
四个互补着用,一个挂了自动降级,不会因为某个 API 429 就整个卡住。实测下来,四源并行的召回率比单源高出不少,尤其是在中英文信息分布不同平台的场景。
search-layer v2.1 新特性(最新)
v2.1 新增 Grok (xAI) 作为第四搜索源,通过 Completions API 调用,支持 API 中转站:
- Grok 搜索源:利用 Grok 模型的实时知识返回结构化搜索结果,擅长时效性查询和权威源识别
- 四源并行:Deep 模式下 Exa + Tavily + Grok 三源并行(加上 agent 层的 Brave 共四源)
- 智能降级:Grok 配置缺失时自动降级为 Exa + Tavily 双源,不影响现有流程
- SSE 兼容:自动检测并处理 API 中转强制 stream 的情况
- 安全加固:查询注入防护(
<query>标签隔离)、URL scheme 验证(仅 http/https) - 日期提取:Grok 结果包含
published_date,参与新鲜度评分
v2 的核心设计:意图感知
灵感来自 Anthropic 的 knowledge-work-plugins 里的 enterprise-search 设计。
核心思路 :不同类型的查询,搜索策略应该完全不同。
比如你问"什么是 WebTransport"和"Deno 最近有什么更新",虽然都是搜索,但前者需要权威文档,后者需要最新资讯。如果用同一套策略去搜,要么找到的太旧,要么找到的不权威。
search-layer v2 会自动分类查询意图,然后调整:
• 搜索模式:快速查找 vs 深度调研 vs AI 问答
• 时间过滤:不限 / 过去一周 / 过去一月
• 评分权重:权威性优先 / 新鲜度优先 / 关键词匹配优先
7 种意图类型:
| 意图 | 典型查询 | 策略偏向 |
|---|---|---|
| Factual | “什么是 X” | 权威文档优先 |
| Status | “X 最新进展” | 新鲜度优先 |
| Comparison | “X vs Y” | 自动拆成 3 个子查询,多角度对比 |
| Tutorial | “怎么用 X” | 教程站点加权 |
| Exploratory | “深入了解 X” | 广撒网,多源并行 |
| News | “X 本周新闻” | 时间过滤 + 新鲜度权重拉满 |
| Resource | “X 官方文档” | 精确匹配 + 官方域名加权 |
score = w_keyword × 关键词匹配 + w_freshness × 新鲜度 + w_authority × 域名权威性权重由意图类型决定。比如 News 意图下,新鲜度权重 0.6,权威性只有 0.1;而 Tutorial 意图下反过来,权威性 0.5,新鲜度只有 0.1。
• 多查询并行:对比类查询自动拆成多个子查询同时跑
• 中英文自动扩展:中文技术查询会自动生成英文变体一起搜,覆盖更全
• 反爬站点兜底:微信公众号、知乎这种 web_fetch 抓不到的,content-extract 会自动切 MinerU 解析,不用手动处理
• 完全向后兼容:不传新参数时行为和 v1 一模一样,已有的调用不用改
• 优雅降级:任何一个搜索源挂了都不影响整体流程,Brave 作为 OpenClaw 内置能力永远兜底
快速安装
让 OpenClaw 帮你装(推荐)
帮我安装这个 skill:GitHub - blessonism/openclaw-search-skills: OpenClaw skills for deep GitHub project analysis — multi-source search, content extraction, and structured research reports.
需要的 API Key:
• Exa:https://exa.ai(免费额度够用)
• Tavily:https://tavily.com(免费额度够用)
• Brave:OpenClaw 内置 web_search 使用
• MinerU(可选):https://mineru.net(可抓取微信公众号、知乎等反爬网站)
使用示例
装好之后,直接在对话里说就行:
• “帮我深入调研一下 Rust 的异步生态” → 自动走 exploratory 模式,三源并行
• “Bun 和 Deno 哪个更适合生产环境” → 自动走 comparison 模式,拆子查询对比
• “这周 AI 领域有什么大新闻” → 自动走 news 模式,时间过滤 + 新鲜度优先
• “WebTransport 是什么” → 自动走 factual 模式,权威文档优先
和上次的 Github-Explorer 是配套的——Explorer 负责分析 GitHub 项目,Search Skills 负责底层的搜索和内容提取。当然也完全可以独立使用,任何需要高质量搜索的场景都能用上。
如果对你有帮助的话,给个 Star 呗
GitHub - blessonism/openclaw-search-skills: OpenClaw skills for deep GitHub project analysis —...
OpenClaw skills for deep GitHub project analysis — multi-source search, content extraction, and structured research reports.
网友解答:--【壹】--:
Brave这个可以可选吗
--【贰】--:
立马让openclaw试试
--【叁】--:
yes,感谢佬友的项目,还有其他好用的skills也希望佬友分享
--【肆】--:
brave 也可以可选的,让 openclaw 自己调整一下就行啦。
--【伍】--:
哇,佬这个也弄得很好!我这一套主要是通过多信源,用覆盖度换准确度,昨天刚看到更新了 grok,等下也准备像佬学习优化升级一下!
我刚刚测试了下 opus4.6 的价格给出的是这些
| 模式 | 输入 /MTok | 输出 /MTok | 说明 |
|---|---|---|---|
| 标准 | $5 | $25 | 默认 |
| Fast Mode | $30 | $150 | 6x 溢价,低延迟 |
| 1M 上下文 (Beta) | $10 | $37.50 | 超过 200K 时全量按此计费 |
| Batch API | $2.50 | $12.50 | 50% 折扣,24h 内返回 |
| Prompt Caching 读取 | $0.50 | — | 输入成本降 90% |
| Batch + Cache 叠加 | $0.25 | $12.50 | 最低组合价,省 95% |
image894×982 205 KB
--【陆】--:
我能接入Gemini吗?感觉谷歌的搜索给的实时信息很快
--【柒】--:
做的确实好马上尝试
--【捌】--:
已经付款了,用上了
--【玖】--:
我一开始用 fiat24 也付不上,后面发现可以用 google pay
--【拾】--:
牛啊 大佬
--【拾壹】--:
可以的,把 api key 丢给 openclaw ,让他自己适配一下就好啦
--【拾贰】--:
哇塞狠狠的关注了,期待一波
--【拾叁】--:
大帅哥是住 L 站了吗 hh
--【拾肆】--:
--【拾伍】--:
那我是不是可以接入perplexity
--【拾陆】--:
哇, 我最近也在折腾这个类似的东西, 不过路径完全不一样, 我是用自带搜索能力的反代的grok4fast和开了搜索工具的Gemini 2.5 flash nothinking一起竞速, 一般来说8s左右能得到相对比较节省token的直接结果
比如想知道opus4.6的价格能直接给到5/25,
Tavily 的搜索结果里只提到了基础定价5/25和 Premium tier 的 $37.50 输出价格
(还没有解释这个Premium tier 是200k)
grok4fast能直接给全这些
基础输入 $5.00 / MTok
基础输出 $25.00 / MTok
超200k上下文输入 $10.00 / MTok
超200k上下文输出 $37.50 / MTok
缓存写入 $6.25 / MTok
缓存读取 $0.50 / MTok
gemini在此之上还会提到fast模式的6倍价格
不过我现在折腾的这套更多是用更多的时间换更高的token信噪比, 路线不一样
--【拾柒】--:
太强了大佬,正好有这个需求
--【拾捌】--:
谢谢佬友喜欢,过两天准备发个帖子分享一下我的 openclaw 的双层记忆架构,大致如下:
热缓存层 (MEMORY.md)
速查表,覆盖 90% 日常解码。包含高频人物、术语、项目状态、偏好与协议。
深度存储层
按类型分目录归档:
⠀• glossary.md — 权威解码器(所有缩写/昵称/代号)
⠀• people/ — 人物档案(沟通风格、偏好)
⠀• projects/ — 项目详情(状态、背景、关键人物)
⠀• knowledge/ — 可复用知识(技术原理、方法论)
⠀• context/ — 环境上下文(部署、工具栈)
⠀• post-mortems.md — 经验教训
支持双路径查找
⠀• 路径 A(确定性):热缓存 → 解码器 → 档案,精确匹配,覆盖日常
⠀• 路径 B(语义搜索):memory_search 模糊召回 → memory_get 精确读取,处理"我们之前讨论过什么"类问题
自动维护蒸馏记忆
⠀• 高频条目(周 3 次+)晋升热缓存
⠀• 30 天未用条目降级回深度存储
⠀• heartbeat 定期巡检 + cron 每周蒸馏日志为长期记忆
--【拾玖】--:
太强了,大佬
前两天在站里推荐了下我的 github 调研 skill,当时有佬问搜索那块是怎么做的,这次单独拿出来讲讲。
和 openclaw 一起写了个 skill,让 AI 帮我做 Github 项目调研 开发调优逛论坛还有 X 时经常刷到不错 Github 项目,很多时候想对这个项目进行进一步了解,但是受限于手机不是很方便,大部分时候的流程都是: 点开 README → 好长 → 翻到底 → 看 Stars 数 → 嗯还行 → 点个 star → 关掉,等以后用电脑再仔细看看 且不说大部分时候后面就忘记这回事了,就算记起来了想对这个 Github 项目有进一步了解需要耗费大量时间去各种渠道(…
openclaw-search-skills 它做了什么?
四个搜索引擎并行跑,按你的查询意图自动调策略,结果去重合并后按权威性+新鲜度+关键词匹配度排序。
具体来说,包含三个 skill:
| Skill | 干什么 |
|---|---|
| search-layer | 核心搜索层。Brave + Exa + Tavily + Grok 四源并行,意图感知评分 |
| content-extract | URL → 干净 Markdown。反爬站点(微信公众号、知乎)自动降级到 MinerU |
| mineru-extract | MinerU API 封装,PDF/Office/HTML 都能转 Markdown |
四个互补着用,一个挂了自动降级,不会因为某个 API 429 就整个卡住。实测下来,四源并行的召回率比单源高出不少,尤其是在中英文信息分布不同平台的场景。
search-layer v2.1 新特性(最新)
v2.1 新增 Grok (xAI) 作为第四搜索源,通过 Completions API 调用,支持 API 中转站:
- Grok 搜索源:利用 Grok 模型的实时知识返回结构化搜索结果,擅长时效性查询和权威源识别
- 四源并行:Deep 模式下 Exa + Tavily + Grok 三源并行(加上 agent 层的 Brave 共四源)
- 智能降级:Grok 配置缺失时自动降级为 Exa + Tavily 双源,不影响现有流程
- SSE 兼容:自动检测并处理 API 中转强制 stream 的情况
- 安全加固:查询注入防护(
<query>标签隔离)、URL scheme 验证(仅 http/https) - 日期提取:Grok 结果包含
published_date,参与新鲜度评分
v2 的核心设计:意图感知
灵感来自 Anthropic 的 knowledge-work-plugins 里的 enterprise-search 设计。
核心思路 :不同类型的查询,搜索策略应该完全不同。
比如你问"什么是 WebTransport"和"Deno 最近有什么更新",虽然都是搜索,但前者需要权威文档,后者需要最新资讯。如果用同一套策略去搜,要么找到的太旧,要么找到的不权威。
search-layer v2 会自动分类查询意图,然后调整:
• 搜索模式:快速查找 vs 深度调研 vs AI 问答
• 时间过滤:不限 / 过去一周 / 过去一月
• 评分权重:权威性优先 / 新鲜度优先 / 关键词匹配优先
7 种意图类型:
| 意图 | 典型查询 | 策略偏向 |
|---|---|---|
| Factual | “什么是 X” | 权威文档优先 |
| Status | “X 最新进展” | 新鲜度优先 |
| Comparison | “X vs Y” | 自动拆成 3 个子查询,多角度对比 |
| Tutorial | “怎么用 X” | 教程站点加权 |
| Exploratory | “深入了解 X” | 广撒网,多源并行 |
| News | “X 本周新闻” | 时间过滤 + 新鲜度权重拉满 |
| Resource | “X 官方文档” | 精确匹配 + 官方域名加权 |
score = w_keyword × 关键词匹配 + w_freshness × 新鲜度 + w_authority × 域名权威性权重由意图类型决定。比如 News 意图下,新鲜度权重 0.6,权威性只有 0.1;而 Tutorial 意图下反过来,权威性 0.5,新鲜度只有 0.1。
• 多查询并行:对比类查询自动拆成多个子查询同时跑
• 中英文自动扩展:中文技术查询会自动生成英文变体一起搜,覆盖更全
• 反爬站点兜底:微信公众号、知乎这种 web_fetch 抓不到的,content-extract 会自动切 MinerU 解析,不用手动处理
• 完全向后兼容:不传新参数时行为和 v1 一模一样,已有的调用不用改
• 优雅降级:任何一个搜索源挂了都不影响整体流程,Brave 作为 OpenClaw 内置能力永远兜底
快速安装
让 OpenClaw 帮你装(推荐)
帮我安装这个 skill:GitHub - blessonism/openclaw-search-skills: OpenClaw skills for deep GitHub project analysis — multi-source search, content extraction, and structured research reports.
需要的 API Key:
• Exa:https://exa.ai(免费额度够用)
• Tavily:https://tavily.com(免费额度够用)
• Brave:OpenClaw 内置 web_search 使用
• MinerU(可选):https://mineru.net(可抓取微信公众号、知乎等反爬网站)
使用示例
装好之后,直接在对话里说就行:
• “帮我深入调研一下 Rust 的异步生态” → 自动走 exploratory 模式,三源并行
• “Bun 和 Deno 哪个更适合生产环境” → 自动走 comparison 模式,拆子查询对比
• “这周 AI 领域有什么大新闻” → 自动走 news 模式,时间过滤 + 新鲜度优先
• “WebTransport 是什么” → 自动走 factual 模式,权威文档优先
和上次的 Github-Explorer 是配套的——Explorer 负责分析 GitHub 项目,Search Skills 负责底层的搜索和内容提取。当然也完全可以独立使用,任何需要高质量搜索的场景都能用上。
如果对你有帮助的话,给个 Star 呗
GitHub - blessonism/openclaw-search-skills: OpenClaw skills for deep GitHub project analysis —...
OpenClaw skills for deep GitHub project analysis — multi-source search, content extraction, and structured research reports.
网友解答:--【壹】--:
Brave这个可以可选吗
--【贰】--:
立马让openclaw试试
--【叁】--:
yes,感谢佬友的项目,还有其他好用的skills也希望佬友分享
--【肆】--:
brave 也可以可选的,让 openclaw 自己调整一下就行啦。
--【伍】--:
哇,佬这个也弄得很好!我这一套主要是通过多信源,用覆盖度换准确度,昨天刚看到更新了 grok,等下也准备像佬学习优化升级一下!
我刚刚测试了下 opus4.6 的价格给出的是这些
| 模式 | 输入 /MTok | 输出 /MTok | 说明 |
|---|---|---|---|
| 标准 | $5 | $25 | 默认 |
| Fast Mode | $30 | $150 | 6x 溢价,低延迟 |
| 1M 上下文 (Beta) | $10 | $37.50 | 超过 200K 时全量按此计费 |
| Batch API | $2.50 | $12.50 | 50% 折扣,24h 内返回 |
| Prompt Caching 读取 | $0.50 | — | 输入成本降 90% |
| Batch + Cache 叠加 | $0.25 | $12.50 | 最低组合价,省 95% |
image894×982 205 KB
--【陆】--:
我能接入Gemini吗?感觉谷歌的搜索给的实时信息很快
--【柒】--:
做的确实好马上尝试
--【捌】--:
已经付款了,用上了
--【玖】--:
我一开始用 fiat24 也付不上,后面发现可以用 google pay
--【拾】--:
牛啊 大佬
--【拾壹】--:
可以的,把 api key 丢给 openclaw ,让他自己适配一下就好啦
--【拾贰】--:
哇塞狠狠的关注了,期待一波
--【拾叁】--:
大帅哥是住 L 站了吗 hh
--【拾肆】--:
--【拾伍】--:
那我是不是可以接入perplexity
--【拾陆】--:
哇, 我最近也在折腾这个类似的东西, 不过路径完全不一样, 我是用自带搜索能力的反代的grok4fast和开了搜索工具的Gemini 2.5 flash nothinking一起竞速, 一般来说8s左右能得到相对比较节省token的直接结果
比如想知道opus4.6的价格能直接给到5/25,
Tavily 的搜索结果里只提到了基础定价5/25和 Premium tier 的 $37.50 输出价格
(还没有解释这个Premium tier 是200k)
grok4fast能直接给全这些
基础输入 $5.00 / MTok
基础输出 $25.00 / MTok
超200k上下文输入 $10.00 / MTok
超200k上下文输出 $37.50 / MTok
缓存写入 $6.25 / MTok
缓存读取 $0.50 / MTok
gemini在此之上还会提到fast模式的6倍价格
不过我现在折腾的这套更多是用更多的时间换更高的token信噪比, 路线不一样
--【拾柒】--:
太强了大佬,正好有这个需求
--【拾捌】--:
谢谢佬友喜欢,过两天准备发个帖子分享一下我的 openclaw 的双层记忆架构,大致如下:
热缓存层 (MEMORY.md)
速查表,覆盖 90% 日常解码。包含高频人物、术语、项目状态、偏好与协议。
深度存储层
按类型分目录归档:
⠀• glossary.md — 权威解码器(所有缩写/昵称/代号)
⠀• people/ — 人物档案(沟通风格、偏好)
⠀• projects/ — 项目详情(状态、背景、关键人物)
⠀• knowledge/ — 可复用知识(技术原理、方法论)
⠀• context/ — 环境上下文(部署、工具栈)
⠀• post-mortems.md — 经验教训
支持双路径查找
⠀• 路径 A(确定性):热缓存 → 解码器 → 档案,精确匹配,覆盖日常
⠀• 路径 B(语义搜索):memory_search 模糊召回 → memory_get 精确读取,处理"我们之前讨论过什么"类问题
自动维护蒸馏记忆
⠀• 高频条目(周 3 次+)晋升热缓存
⠀• 30 天未用条目降级回深度存储
⠀• heartbeat 定期巡检 + cron 每周蒸馏日志为长期记忆
--【拾玖】--:
太强了,大佬

