让你的 openclaw 拥有 search expert 级的多源高质量搜索能力(已接入 Grok)

2026-04-11 13:591阅读0评论SEO教程
  • 内容介绍
  • 文章标签
  • 相关推荐
问题描述:

前两天在站里推荐了下我的 github 调研 skill,当时有佬问搜索那块是怎么做的,这次单独拿出来讲讲。

和 openclaw 一起写了个 skill,让 AI 帮我做 Github 项目调研 开发调优
逛论坛还有 X 时经常刷到不错 Github 项目,很多时候想对这个项目进行进一步了解,但是受限于手机不是很方便,大部分时候的流程都是: 点开 README → 好长 → 翻到底 → 看 Stars 数 → 嗯还行 → 点个 star → 关掉,等以后用电脑再仔细看看 且不说大部分时候后面就忘记这回事了,就算记起来了想对这个 Github 项目有进一步了解需要耗费大量时间去各种渠道(…

openclaw-search-skills 它做了什么?

四个搜索引擎并行跑,按你的查询意图自动调策略,结果去重合并后按权威性+新鲜度+关键词匹配度排序。

具体来说,包含三个 skill:

Skill 干什么
search-layer 核心搜索层。Brave + Exa + Tavily + Grok 四源并行,意图感知评分
content-extract URL → 干净 Markdown。反爬站点(微信公众号、知乎)自动降级到 MinerU
mineru-extract MinerU API 封装,PDF/Office/HTML 都能转 Markdown

四个互补着用,一个挂了自动降级,不会因为某个 API 429 就整个卡住。实测下来,四源并行的召回率比单源高出不少,尤其是在中英文信息分布不同平台的场景。


search-layer v2.1 新特性(最新)

v2.1 新增 Grok (xAI) 作为第四搜索源,通过 Completions API 调用,支持 API 中转站:

  • Grok 搜索源:利用 Grok 模型的实时知识返回结构化搜索结果,擅长时效性查询和权威源识别
  • 四源并行:Deep 模式下 Exa + Tavily + Grok 三源并行(加上 agent 层的 Brave 共四源)
  • 智能降级:Grok 配置缺失时自动降级为 Exa + Tavily 双源,不影响现有流程
  • SSE 兼容:自动检测并处理 API 中转强制 stream 的情况
  • 安全加固:查询注入防护(<query> 标签隔离)、URL scheme 验证(仅 http/https)
  • 日期提取:Grok 结果包含 published_date,参与新鲜度评分

v2 的核心设计:意图感知

灵感来自 Anthropic 的 knowledge-work-plugins 里的 enterprise-search 设计。

核心思路 :不同类型的查询,搜索策略应该完全不同。

比如你问"什么是 WebTransport"和"Deno 最近有什么更新",虽然都是搜索,但前者需要权威文档,后者需要最新资讯。如果用同一套策略去搜,要么找到的太旧,要么找到的不权威。

search-layer v2 会自动分类查询意图,然后调整:

• 搜索模式:快速查找 vs 深度调研 vs AI 问答
• 时间过滤:不限 / 过去一周 / 过去一月
• 评分权重:权威性优先 / 新鲜度优先 / 关键词匹配优先

7 种意图类型:

意图 典型查询 策略偏向
Factual “什么是 X” 权威文档优先
Status “X 最新进展” 新鲜度优先
Comparison “X vs Y” 自动拆成 3 个子查询,多角度对比
Tutorial “怎么用 X” 教程站点加权
Exploratory “深入了解 X” 广撒网,多源并行
News “X 本周新闻” 时间过滤 + 新鲜度权重拉满
Resource “X 官方文档” 精确匹配 + 官方域名加权

score = w_keyword × 关键词匹配 + w_freshness × 新鲜度 + w_authority × 域名权威性权重由意图类型决定。比如 News 意图下,新鲜度权重 0.6,权威性只有 0.1;而 Tutorial 意图下反过来,权威性 0.5,新鲜度只有 0.1。

• 多查询并行:对比类查询自动拆成多个子查询同时跑
• 中英文自动扩展:中文技术查询会自动生成英文变体一起搜,覆盖更全
• 反爬站点兜底:微信公众号、知乎这种 web_fetch 抓不到的,content-extract 会自动切 MinerU 解析,不用手动处理
• 完全向后兼容:不传新参数时行为和 v1 一模一样,已有的调用不用改
• 优雅降级:任何一个搜索源挂了都不影响整体流程,Brave 作为 OpenClaw 内置能力永远兜底

快速安装

让 OpenClaw 帮你装(推荐)

帮我安装这个 skill:GitHub - blessonism/openclaw-search-skills: OpenClaw skills for deep GitHub project analysis — multi-source search, content extraction, and structured research reports.

需要的 API Key:

• Exa:https://exa.ai(免费额度够用)
• Tavily:https://tavily.com(免费额度够用)
• Brave:OpenClaw 内置 web_search 使用
• MinerU(可选):https://mineru.net(可抓取微信公众号、知乎等反爬网站)

使用示例

装好之后,直接在对话里说就行:

• “帮我深入调研一下 Rust 的异步生态” → 自动走 exploratory 模式,三源并行
• “Bun 和 Deno 哪个更适合生产环境” → 自动走 comparison 模式,拆子查询对比
• “这周 AI 领域有什么大新闻” → 自动走 news 模式,时间过滤 + 新鲜度优先
• “WebTransport 是什么” → 自动走 factual 模式,权威文档优先


和上次的 Github-Explorer 是配套的——Explorer 负责分析 GitHub 项目,Search Skills 负责底层的搜索和内容提取。当然也完全可以独立使用,任何需要高质量搜索的场景都能用上。

如果对你有帮助的话,给个 Star 呗

github.com

GitHub - blessonism/openclaw-search-skills: OpenClaw skills for deep GitHub project analysis —...

OpenClaw skills for deep GitHub project analysis — multi-source search, content extraction, and structured research reports.

网友解答:
--【壹】--:

Brave这个可以可选吗


--【贰】--:

立马让openclaw试试


--【叁】--:

yes,感谢佬友的项目,还有其他好用的skills也希望佬友分享


--【肆】--:

brave 也可以可选的,让 openclaw 自己调整一下就行啦。


--【伍】--:

哇,佬这个也弄得很好!我这一套主要是通过多信源,用覆盖度换准确度,昨天刚看到更新了 grok,等下也准备像佬学习优化升级一下!


我刚刚测试了下 opus4.6 的价格给出的是这些

模式 输入 /MTok 输出 /MTok 说明
标准 $5 $25 默认
Fast Mode $30 $150 6x 溢价,低延迟
1M 上下文 (Beta) $10 $37.50 超过 200K 时全量按此计费
Batch API $2.50 $12.50 50% 折扣,24h 内返回
Prompt Caching 读取 $0.50 输入成本降 90%
Batch + Cache 叠加 $0.25 $12.50 最低组合价,省 95%

image894×982 205 KB


--【陆】--:

我能接入Gemini吗?感觉谷歌的搜索给的实时信息很快


--【柒】--:

做的确实好马上尝试


--【捌】--:

已经付款了,用上了


--【玖】--:

我一开始用 fiat24 也付不上,后面发现可以用 google pay


--【拾】--:

牛啊 大佬


--【拾壹】--:

可以的,把 api key 丢给 openclaw ,让他自己适配一下就好啦


--【拾贰】--:

哇塞狠狠的关注了,期待一波


--【拾叁】--:

大帅哥是住 L 站了吗 hh


--【拾肆】--:


--【拾伍】--:

那我是不是可以接入perplexity


--【拾陆】--:

哇, 我最近也在折腾这个类似的东西, 不过路径完全不一样, 我是用自带搜索能力的反代的grok4fast和开了搜索工具的Gemini 2.5 flash nothinking一起竞速, 一般来说8s左右能得到相对比较节省token的直接结果
比如想知道opus4.6的价格能直接给到5/25,
Tavily 的搜索结果里只提到了基础定价5/25和 Premium tier 的 $37.50 输出价格
(还没有解释这个Premium tier 是200k)
grok4fast能直接给全这些

基础输入 $5.00 / MTok 基础输出 $25.00 / MTok 超200k上下文输入 $10.00 / MTok 超200k上下文输出 $37.50 / MTok 缓存写入 $6.25 / MTok 缓存读取 $0.50 / MTok

gemini在此之上还会提到fast模式的6倍价格

不过我现在折腾的这套更多是用更多的时间换更高的token信噪比, 路线不一样


--【拾柒】--:

太强了大佬,正好有这个需求


--【拾捌】--:

谢谢佬友喜欢,过两天准备发个帖子分享一下我的 openclaw 的双层记忆架构,大致如下:

热缓存层 (MEMORY.md)
速查表,覆盖 90% 日常解码。包含高频人物、术语、项目状态、偏好与协议。

深度存储层
按类型分目录归档:
⠀• glossary.md — 权威解码器(所有缩写/昵称/代号)
⠀• people/ — 人物档案(沟通风格、偏好)
⠀• projects/ — 项目详情(状态、背景、关键人物)
⠀• knowledge/ — 可复用知识(技术原理、方法论)
⠀• context/ — 环境上下文(部署、工具栈)
⠀• post-mortems.md — 经验教训

支持双路径查找
⠀• 路径 A(确定性):热缓存 → 解码器 → 档案,精确匹配,覆盖日常
⠀• 路径 B(语义搜索):memory_search 模糊召回 → memory_get 精确读取,处理"我们之前讨论过什么"类问题

自动维护蒸馏记忆
⠀• 高频条目(周 3 次+)晋升热缓存
⠀• 30 天未用条目降级回深度存储
⠀• heartbeat 定期巡检 + cron 每周蒸馏日志为长期记忆


--【拾玖】--:

太强了,大佬