gpt 拉闸后,想问问接入 openclaw 的国产模型有推荐的吗?

2026-04-11 14:161阅读0评论SEO资讯
  • 内容介绍
  • 文章标签
  • 相关推荐
问题描述:

目前看到的

  1. Minmax 49 一个月
  2. Glm5 49 但是抢不到
  3. kim2.5 49 一个月

国产御三家有推荐的吗?接入 openclaw 非重度,只轻量使用

自己现在在用的小米 mimov2pro 感觉也很不错,就是不知道后续会不会出 codeplan

网友解答:
--【壹】--:

没接 那个速度 有点感人


--【贰】--: flynn:

硅基

佬 有具体路径吗 我去官网看没找到怎么白嫖 注册送 16 元代金券吗


--【叁】--:

m2.7 qwen3.5-plus glm5-terbo 都接过小龙虾 没用出区别…


--【肆】--:

哈哈哈 这么惨吗 我看看 kim2.5


--【伍】--:

佬 不是说 glm5.1 最强吗


--【陆】--:

如果是25年以前的就白嫖kimi2 如果是注册送的 最新的 可以用pro前缀的 kimi2.5 更好 但是16很快就没了


--【柒】--:

怎么说呢 佬? glm 速度很慢吗 回复


--【捌】--:

好的 感谢 我只看大家都说媲美 opus4.6 没考虑速度 你这样说的确要考虑一下


--【玖】--:

好的 佬 我先开一个月试试 kim 竟然不限量


--【拾】--:

就kimi好用点感觉,有视觉能力很重要


--【拾壹】--:

MiniMax2.7和GLM5相比如何,我昨天才买的MiniMax 30块plan,虽然不开发项目,但偶尔会改改龙虾配置(应该不至于被改坏吧)


--【拾贰】--:

5.1很慢


--【拾叁】--:

好的 佬 我就是先开个月卡试试 现在模型更新的还挺快的


--【拾肆】--:

硅基有kimi2可以白嫖
花钱我觉得还是kimi吧


--【拾伍】--:

如果只是体验可以先去用ollama之类的有免费额度的试试,感觉国外自部署的速度都快很多


--【拾陆】--:

kimi 吧


--【拾柒】--:

kimi 或 glm ,请不要尝试 minimax,那会变得不幸


--【拾捌】--:

glm,说一句等好久才响应


--【拾玖】--:

其实最强的是结合 Grok搜索后的模型 配着 Grok 搜索很无敌 每天推送资讯

问题描述:

目前看到的

  1. Minmax 49 一个月
  2. Glm5 49 但是抢不到
  3. kim2.5 49 一个月

国产御三家有推荐的吗?接入 openclaw 非重度,只轻量使用

自己现在在用的小米 mimov2pro 感觉也很不错,就是不知道后续会不会出 codeplan

网友解答:
--【壹】--:

没接 那个速度 有点感人


--【贰】--: flynn:

硅基

佬 有具体路径吗 我去官网看没找到怎么白嫖 注册送 16 元代金券吗


--【叁】--:

m2.7 qwen3.5-plus glm5-terbo 都接过小龙虾 没用出区别…


--【肆】--:

哈哈哈 这么惨吗 我看看 kim2.5


--【伍】--:

佬 不是说 glm5.1 最强吗


--【陆】--:

如果是25年以前的就白嫖kimi2 如果是注册送的 最新的 可以用pro前缀的 kimi2.5 更好 但是16很快就没了


--【柒】--:

怎么说呢 佬? glm 速度很慢吗 回复


--【捌】--:

好的 感谢 我只看大家都说媲美 opus4.6 没考虑速度 你这样说的确要考虑一下


--【玖】--:

好的 佬 我先开一个月试试 kim 竟然不限量


--【拾】--:

就kimi好用点感觉,有视觉能力很重要


--【拾壹】--:

MiniMax2.7和GLM5相比如何,我昨天才买的MiniMax 30块plan,虽然不开发项目,但偶尔会改改龙虾配置(应该不至于被改坏吧)


--【拾贰】--:

5.1很慢


--【拾叁】--:

好的 佬 我就是先开个月卡试试 现在模型更新的还挺快的


--【拾肆】--:

硅基有kimi2可以白嫖
花钱我觉得还是kimi吧


--【拾伍】--:

如果只是体验可以先去用ollama之类的有免费额度的试试,感觉国外自部署的速度都快很多


--【拾陆】--:

kimi 吧


--【拾柒】--:

kimi 或 glm ,请不要尝试 minimax,那会变得不幸


--【拾捌】--:

glm,说一句等好久才响应


--【拾玖】--:

其实最强的是结合 Grok搜索后的模型 配着 Grok 搜索很无敌 每天推送资讯