Hermes-Agent 初体验:该团队认为 openclaw 早就到了做减法的时候,但我想说你的团队还得练
- 内容介绍
- 文章标签
- 相关推荐
更像是把 Claude Code 打包了(这能说吗
第一感受:比较纯粹的 Agent + Gateway
PixPin_2026-04-11_18-03-271903×900 48.3 KB
第二感受:比较激进的“自进化”机制:新任务自动生成skill
哪怕是检查Hermes的网关
PixPin_2026-04-11_18-10-09570×879 47.9 KB
PixPin_2026-04-11_18-08-51572×867 37.1 KB
查天气
PixPin_2026-04-11_18-13-36566×310 11.9 KB
……
与openclaw相比,能明显体会到的优势:
- 服务器资源友好
- 授权提权、运行命令比龙虾省心太多,但同时风险行为的管控弱,意味着更危险
比如不出意外的自杀:
PixPin_2026-04-11_18-15-31566×908 46.1 KB
实际效果:
放在1C1G的小鸡上,接了硅基的DeepSeek-v3.2测试,简单管理服务器,智商先不谈,tokens 好像真没省多少
4.10 5pm ~ 4.11 2am
一共进行了三个任务:
- 完善自身配置(还行)
- 让它分析、部署MarkItDown项目,发现不能用后回退清理(ok)
- 服务器运维(空间回收+s-ui安全边界收束):空间回收完成,s-ui基本失败,能理解,不是什么大众运维项
tokens用量:21M,硅基无缓存赠金DS-v3.2,enable_thinking=false(也就是deepseek-chat),Hermes 内部思考负担设置为 Medium
PixPin_2026-04-11_17-54-391395×116 18 KB
PixPin_2026-04-11_17-53-26573×959 50.7 KB
小结
-
作为Agent产品完全合格,团队开发,免费测试人员不足,Bug不少
站内很多佬也发过,比如甚至会硬编码API Provider Endpoint导致minimax国内站配置失效
但目前处于热度上升期,目测会修的很快(出新bug可能更快 -
广子铺天盖地,商业化进程估计快马加鞭,但月内不会急着变现
-
对 Windows 的支持比龙虾差劲,官方只建议 WSL2/Docker
-
有低性能非生产vps或设备,推荐尝试,捡捡垃圾就能养活
我发现它的表现可能不止这个,我搭在ClawCloud的的CPA怎么也不行?
解决啦!在万能佬友帮助下直接两分钟秒了
spiderspider:佬,hermes调用CPA报403错误是被cloudflare拦截了,我之前也遇到了这个问题,通过改cloudflare的规则解决了。我的解决方案之前发在另一个帖子下面了,链接是这个https://linux.do/t/topic/1931658/45,内容我也贴在下面了,佬可以参考一下。
以下是原问题描述
对了,你可能想问我为什么用DS-V3.2,这也是我想问的,还记得上面这一条吗?
站内很多佬也发过,比如甚至会硬编码API Provider Endpoint导致minimax国内站配置失效
curl可以顺利请求和响应
~$ curl -X POST 'https://cpaxxx.xxx/v1/chat/completions' \
> -H 'Authorization: Bearer YOUR_AI_API_KEY' \
> -H 'Content-Type: application/json' \
> -d '{
> "model": "gpt-5.4",
> "messages": [
> {"role": "user", "content": "Hello! 用中文用一句话介绍你自己。"}
> ]
> }'
{"id":"resp_0e81ed173f54623f0169d8b15b79f08191b3296ca007f9df37","object":"chat.completion","created":1775808859,"model":"gpt-5.4","choices":[{"index":0,"message":{"role":"assistant","content":null,"reasoning_content":null,"tool_calls":null},"finish_reason":"stop","native_finish_reason":"stop"}],"usage":{"completion_tokens":35,"total_tokens":52,"prompt_tokens":17,"prompt_tokens_details":{"cached_tokens":0},"completion_to
Hermes Agent不行
● hello
Initializing agent...
────────────────────────────────────────
⚠️ API call failed (attempt 1/3): PermissionDeniedError [HTTP 403]
🔌 Provider: custom Model: gpt-5.4
🌐 Endpoint: https://cpaxxx.xxx/v1
📝 Error: HTTP 403: Your request was blocked.
📋 Details: Your request was blocked.
⚠️ Non-retryable error (HTTP 403) — trying fallback...
❌ Non-retryable error (HTTP 403): HTTP 403: Your request was blocked.
❌ Non-retryable client error (HTTP 403). Aborting.
🔌 Provider: custom Model: gpt-5.4
🌐 Endpoint:https://cpaxxx.xxx/v1
💡 Your API key was rejected by the provider. Check:
• Is the key valid? Run: hermes setup
• Does your account have access to gpt-5.4?
─ ⚕ Hermes ──────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────
Error: Your request was blocked.
网友解答:
--【壹】--:
佬,就目前来看,龙虾搭配的模型有推荐吗?我看别人说gpt不好用,但是其他渠道能薅的不多,请教下有没有上中下策
--【贰】--:
目前用是因为mimo模型在Hermes上面免费2周,用来当小龙虾的备用
--【叁】--: supanono:
我搭在ClawCloud的的CPA怎么也不行?
佬,hermes调用CPA报403错误是被cloudflare拦截了,我之前也遇到了这个问题,通过改cloudflare的规则解决了。我的解决方案之前发在另一个帖子下面了,链接是这个https://linux.do/t/topic/1931658/45,内容我也贴在下面了,佬可以参考一下。
在另一个话题中在另一个话题中image1612×840 66.2 KB
在cloudflare的域名页面下,在“安全性”–>“安全规则”里面添加我图里面这样的规则就OK啦。
具体操作如下:
- 点击“创建规则”,在下拉框选择“自定义规则”
- 先自定义一个“规则名称”,比如“放行v1的api请求”
- 点击“编辑表达式”,粘贴我下面贴出的表达式,点击“使用表达式生成器”
- 在“选择操作”下拉框里选择“跳过”
- 在“要跳过的 WAF 组件”里勾选“所有超级自动程序攻击模式规则”,再点击“更多要跳过的组件”展开,再勾选“浏览器完整性检查”。到这一步就和我前面图里面的设置完全一样了。
- 点击“部署”。然后就可以用了
表达式如下:
(starts_with(http.request.uri.path, "/v1/"))部署完成后界面如图所示,确认这条规则右侧显示的是“活动”就OK了,如果不是“活动”在右侧三个点里面选择“启用”
image1651×835 70.5 KB
--【肆】--:
明显能感觉到提示词约束比龙虾要严格,我觉得它对模型的智能要求可能比龙虾低很多
目前看,还停留在实验室内部测试阶段
出发点是好的,但你先别出发,再沉淀沉淀吧
--【伍】--:
真行诶!果然佬们都是神通广大,多讨论肯定有好处,谢谢佬了
PixPin_2026-04-11_19-51-09520×230 3.87 KB
--【陆】--:
这玩意和龙虾差的远,个人体验,闲聊都得一会才回复,虚假执行,看这输入中就头疼。当然也许是模型原因
--【柒】--:
感谢佬友的长回复,经常听人说gpt不够好,但是总是不知道不好在哪,我自己是用codex的,我用过opus4.6,但是我觉得也没有好用到哪去,对于现在来说,gpt plus/team已经是非常实惠的选择了,国内的也正如佬所说的,供不应求,但胜在稳定,对于原意折腾的或者没有稳定需求的人来说,gpt无疑t0,但是有稳定需求的话还是要找中转站或者国内的coding plan,等会就尝试看看
--【捌】--:
他这玩意能做到的龙虾很快就可以补齐,我看了Hermes的源码,写的挺糙的,架构设计的也一般,现在都是搞自媒体的为了流量吹的新热点
--【玖】--:
没有标准答案,说点个人的体会吧,欢迎讨论和指正
GPT已经够好用了,现在没那么好用大部分是说free codex的降速和砍限额,也就是注册机用户比较痛,另外就是风格问题,说话让人很烦,像在上班
如果你有plus/team/pro那还是好用
上中下策很难讲,有人觉得掏钱上最好的省心就是上策,注册机得不偿失,有人觉得薅OAI省钱是上策
如果只评价模型的角度,那上策就是非官方但付一定费用的GPT-5.4(很难想象居然有天我能说出GPT性价比高,其次是二道贩子打包转卖的Gemini官方API
中策就是掏钱上国内的Coding Plan,GLM或者kimi,智商其实也够用,主要是稳定,哪天我懒得薅或者没得薅OAI应该就会选这条路
但问题也挺多的,就比如GLM Coding Plan,目前超售严重,tps不受保障,套餐还限售,根本抢不到
下策找公益站(都不好过,很不稳定)、中转站(可能会好点?但看看前几个富可敌国的吃相我也不想评)
总之能搞到的模型都尝尝咸淡,说不定哪个模型更适合你的日常工作,中途换模型没关系的,多给龙虾上点约束防止它自杀或者发癫就行
也可以做做梦嘛,万一两周后DS-V4发了,又坐上开源SOTA,还便宜量大,那我不就无缝转战了
--【拾】--:
这个水比较深,在我这里目前有以下几个算上策:
- 是通过接码或者买邮箱,古法/注册机薅Free Codex,CPA反代(最便宜,但暴毙风险最高)
- 找打包卖Plus/Team/Pro号池的,其实也是CPA反代,不用自己注册账号了(比 1 费钱,省心)
- 中转站,这个我推荐不了,雷比较多,站内找找吧(薛定谔的稳定,薛定谔的售后)
--【拾壹】--:
多讨论确实好处多多呀,我这个解决方法也是从其他佬那里学的,我自己整理了一下实现步骤
--【拾贰】--:
这个消息我倒是没关注到,我去看看,也尝尝咸淡
--【拾叁】--:
真的,所以我说像是一个Gateway接了个Claude Code
消息通过Gateway转发给Claude Code,那边库库调工具,完了后结果给LLM总结,从Gateway发回来
中间这个等待真的很久,我都不敢想要是用Thinking模型得拖成啥样
--【拾肆】--:
让龙虾自己设计一个skill,配置修改先验证,修改失败就回滚配置
修改配置文件,会先备份、再重启验证、失败自动回滚
--【拾伍】--:
确实是,我现在都不敢更新了,每次让龙虾自己更新基本必宕机
手动更也就是修得快点
--【拾陆】--:
我的感受是 烧token并且回复等半天~
--【拾柒】--: supanono:
上策就是非官方但付一定费用的GPT-5.4
佬这里指的中转站什么的吗?有什么推荐的渠道吗
--【拾捌】--:
好像确实试过,openclaw支持这个机制,在本地拉起一个dev环境测试
麻烦的是dev环境和生产环境还是有差别,它测试没问题,但让它自己升级总是会有意外
我都是随时准备让Codex修,现在越来越谨慎升级了
--【拾玖】--:
放弃龙虾了,一个版本一个大坑,天天烧token救龙虾,它能做的爱马仕都能做,主要是不会自杀
更像是把 Claude Code 打包了(这能说吗
第一感受:比较纯粹的 Agent + Gateway
PixPin_2026-04-11_18-03-271903×900 48.3 KB
第二感受:比较激进的“自进化”机制:新任务自动生成skill
哪怕是检查Hermes的网关
PixPin_2026-04-11_18-10-09570×879 47.9 KB
PixPin_2026-04-11_18-08-51572×867 37.1 KB
查天气
PixPin_2026-04-11_18-13-36566×310 11.9 KB
……
与openclaw相比,能明显体会到的优势:
- 服务器资源友好
- 授权提权、运行命令比龙虾省心太多,但同时风险行为的管控弱,意味着更危险
比如不出意外的自杀:
PixPin_2026-04-11_18-15-31566×908 46.1 KB
实际效果:
放在1C1G的小鸡上,接了硅基的DeepSeek-v3.2测试,简单管理服务器,智商先不谈,tokens 好像真没省多少
4.10 5pm ~ 4.11 2am
一共进行了三个任务:
- 完善自身配置(还行)
- 让它分析、部署MarkItDown项目,发现不能用后回退清理(ok)
- 服务器运维(空间回收+s-ui安全边界收束):空间回收完成,s-ui基本失败,能理解,不是什么大众运维项
tokens用量:21M,硅基无缓存赠金DS-v3.2,enable_thinking=false(也就是deepseek-chat),Hermes 内部思考负担设置为 Medium
PixPin_2026-04-11_17-54-391395×116 18 KB
PixPin_2026-04-11_17-53-26573×959 50.7 KB
小结
-
作为Agent产品完全合格,团队开发,免费测试人员不足,Bug不少
站内很多佬也发过,比如甚至会硬编码API Provider Endpoint导致minimax国内站配置失效
但目前处于热度上升期,目测会修的很快(出新bug可能更快 -
广子铺天盖地,商业化进程估计快马加鞭,但月内不会急着变现
-
对 Windows 的支持比龙虾差劲,官方只建议 WSL2/Docker
-
有低性能非生产vps或设备,推荐尝试,捡捡垃圾就能养活
我发现它的表现可能不止这个,我搭在ClawCloud的的CPA怎么也不行?
解决啦!在万能佬友帮助下直接两分钟秒了
spiderspider:佬,hermes调用CPA报403错误是被cloudflare拦截了,我之前也遇到了这个问题,通过改cloudflare的规则解决了。我的解决方案之前发在另一个帖子下面了,链接是这个https://linux.do/t/topic/1931658/45,内容我也贴在下面了,佬可以参考一下。
以下是原问题描述
对了,你可能想问我为什么用DS-V3.2,这也是我想问的,还记得上面这一条吗?
站内很多佬也发过,比如甚至会硬编码API Provider Endpoint导致minimax国内站配置失效
curl可以顺利请求和响应
~$ curl -X POST 'https://cpaxxx.xxx/v1/chat/completions' \
> -H 'Authorization: Bearer YOUR_AI_API_KEY' \
> -H 'Content-Type: application/json' \
> -d '{
> "model": "gpt-5.4",
> "messages": [
> {"role": "user", "content": "Hello! 用中文用一句话介绍你自己。"}
> ]
> }'
{"id":"resp_0e81ed173f54623f0169d8b15b79f08191b3296ca007f9df37","object":"chat.completion","created":1775808859,"model":"gpt-5.4","choices":[{"index":0,"message":{"role":"assistant","content":null,"reasoning_content":null,"tool_calls":null},"finish_reason":"stop","native_finish_reason":"stop"}],"usage":{"completion_tokens":35,"total_tokens":52,"prompt_tokens":17,"prompt_tokens_details":{"cached_tokens":0},"completion_to
Hermes Agent不行
● hello
Initializing agent...
────────────────────────────────────────
⚠️ API call failed (attempt 1/3): PermissionDeniedError [HTTP 403]
🔌 Provider: custom Model: gpt-5.4
🌐 Endpoint: https://cpaxxx.xxx/v1
📝 Error: HTTP 403: Your request was blocked.
📋 Details: Your request was blocked.
⚠️ Non-retryable error (HTTP 403) — trying fallback...
❌ Non-retryable error (HTTP 403): HTTP 403: Your request was blocked.
❌ Non-retryable client error (HTTP 403). Aborting.
🔌 Provider: custom Model: gpt-5.4
🌐 Endpoint:https://cpaxxx.xxx/v1
💡 Your API key was rejected by the provider. Check:
• Is the key valid? Run: hermes setup
• Does your account have access to gpt-5.4?
─ ⚕ Hermes ──────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────
Error: Your request was blocked.
网友解答:
--【壹】--:
佬,就目前来看,龙虾搭配的模型有推荐吗?我看别人说gpt不好用,但是其他渠道能薅的不多,请教下有没有上中下策
--【贰】--:
目前用是因为mimo模型在Hermes上面免费2周,用来当小龙虾的备用
--【叁】--: supanono:
我搭在ClawCloud的的CPA怎么也不行?
佬,hermes调用CPA报403错误是被cloudflare拦截了,我之前也遇到了这个问题,通过改cloudflare的规则解决了。我的解决方案之前发在另一个帖子下面了,链接是这个https://linux.do/t/topic/1931658/45,内容我也贴在下面了,佬可以参考一下。
在另一个话题中在另一个话题中image1612×840 66.2 KB
在cloudflare的域名页面下,在“安全性”–>“安全规则”里面添加我图里面这样的规则就OK啦。
具体操作如下:
- 点击“创建规则”,在下拉框选择“自定义规则”
- 先自定义一个“规则名称”,比如“放行v1的api请求”
- 点击“编辑表达式”,粘贴我下面贴出的表达式,点击“使用表达式生成器”
- 在“选择操作”下拉框里选择“跳过”
- 在“要跳过的 WAF 组件”里勾选“所有超级自动程序攻击模式规则”,再点击“更多要跳过的组件”展开,再勾选“浏览器完整性检查”。到这一步就和我前面图里面的设置完全一样了。
- 点击“部署”。然后就可以用了
表达式如下:
(starts_with(http.request.uri.path, "/v1/"))部署完成后界面如图所示,确认这条规则右侧显示的是“活动”就OK了,如果不是“活动”在右侧三个点里面选择“启用”
image1651×835 70.5 KB
--【肆】--:
明显能感觉到提示词约束比龙虾要严格,我觉得它对模型的智能要求可能比龙虾低很多
目前看,还停留在实验室内部测试阶段
出发点是好的,但你先别出发,再沉淀沉淀吧
--【伍】--:
真行诶!果然佬们都是神通广大,多讨论肯定有好处,谢谢佬了
PixPin_2026-04-11_19-51-09520×230 3.87 KB
--【陆】--:
这玩意和龙虾差的远,个人体验,闲聊都得一会才回复,虚假执行,看这输入中就头疼。当然也许是模型原因
--【柒】--:
感谢佬友的长回复,经常听人说gpt不够好,但是总是不知道不好在哪,我自己是用codex的,我用过opus4.6,但是我觉得也没有好用到哪去,对于现在来说,gpt plus/team已经是非常实惠的选择了,国内的也正如佬所说的,供不应求,但胜在稳定,对于原意折腾的或者没有稳定需求的人来说,gpt无疑t0,但是有稳定需求的话还是要找中转站或者国内的coding plan,等会就尝试看看
--【捌】--:
他这玩意能做到的龙虾很快就可以补齐,我看了Hermes的源码,写的挺糙的,架构设计的也一般,现在都是搞自媒体的为了流量吹的新热点
--【玖】--:
没有标准答案,说点个人的体会吧,欢迎讨论和指正
GPT已经够好用了,现在没那么好用大部分是说free codex的降速和砍限额,也就是注册机用户比较痛,另外就是风格问题,说话让人很烦,像在上班
如果你有plus/team/pro那还是好用
上中下策很难讲,有人觉得掏钱上最好的省心就是上策,注册机得不偿失,有人觉得薅OAI省钱是上策
如果只评价模型的角度,那上策就是非官方但付一定费用的GPT-5.4(很难想象居然有天我能说出GPT性价比高,其次是二道贩子打包转卖的Gemini官方API
中策就是掏钱上国内的Coding Plan,GLM或者kimi,智商其实也够用,主要是稳定,哪天我懒得薅或者没得薅OAI应该就会选这条路
但问题也挺多的,就比如GLM Coding Plan,目前超售严重,tps不受保障,套餐还限售,根本抢不到
下策找公益站(都不好过,很不稳定)、中转站(可能会好点?但看看前几个富可敌国的吃相我也不想评)
总之能搞到的模型都尝尝咸淡,说不定哪个模型更适合你的日常工作,中途换模型没关系的,多给龙虾上点约束防止它自杀或者发癫就行
也可以做做梦嘛,万一两周后DS-V4发了,又坐上开源SOTA,还便宜量大,那我不就无缝转战了
--【拾】--:
这个水比较深,在我这里目前有以下几个算上策:
- 是通过接码或者买邮箱,古法/注册机薅Free Codex,CPA反代(最便宜,但暴毙风险最高)
- 找打包卖Plus/Team/Pro号池的,其实也是CPA反代,不用自己注册账号了(比 1 费钱,省心)
- 中转站,这个我推荐不了,雷比较多,站内找找吧(薛定谔的稳定,薛定谔的售后)
--【拾壹】--:
多讨论确实好处多多呀,我这个解决方法也是从其他佬那里学的,我自己整理了一下实现步骤
--【拾贰】--:
这个消息我倒是没关注到,我去看看,也尝尝咸淡
--【拾叁】--:
真的,所以我说像是一个Gateway接了个Claude Code
消息通过Gateway转发给Claude Code,那边库库调工具,完了后结果给LLM总结,从Gateway发回来
中间这个等待真的很久,我都不敢想要是用Thinking模型得拖成啥样
--【拾肆】--:
让龙虾自己设计一个skill,配置修改先验证,修改失败就回滚配置
修改配置文件,会先备份、再重启验证、失败自动回滚
--【拾伍】--:
确实是,我现在都不敢更新了,每次让龙虾自己更新基本必宕机
手动更也就是修得快点
--【拾陆】--:
我的感受是 烧token并且回复等半天~
--【拾柒】--: supanono:
上策就是非官方但付一定费用的GPT-5.4
佬这里指的中转站什么的吗?有什么推荐的渠道吗
--【拾捌】--:
好像确实试过,openclaw支持这个机制,在本地拉起一个dev环境测试
麻烦的是dev环境和生产环境还是有差别,它测试没问题,但让它自己升级总是会有意外
我都是随时准备让Codex修,现在越来越谨慎升级了
--【拾玖】--:
放弃龙虾了,一个版本一个大坑,天天烧token救龙虾,它能做的爱马仕都能做,主要是不会自杀

