gpt 拉闸后,想问问接入 openclaw 的国产模型有推荐的吗?
- 内容介绍
- 文章标签
- 相关推荐
目前看到的
- Minmax 49 一个月
- Glm5 49 但是抢不到
- kim2.5 49 一个月
国产御三家有推荐的吗?接入 openclaw 非重度,只轻量使用
自己现在在用的小米 mimov2pro 感觉也很不错,就是不知道后续会不会出 codeplan
网友解答:--【壹】--:
没接 那个速度 有点感人
--【贰】--: flynn:
硅基
佬 有具体路径吗 我去官网看没找到怎么白嫖 注册送 16 元代金券吗
--【叁】--:
m2.7 qwen3.5-plus glm5-terbo 都接过小龙虾 没用出区别…
--【肆】--:
哈哈哈 这么惨吗 我看看 kim2.5
--【伍】--:
佬 不是说 glm5.1 最强吗
--【陆】--:
如果是25年以前的就白嫖kimi2 如果是注册送的 最新的 可以用pro前缀的 kimi2.5 更好 但是16很快就没了
--【柒】--:
怎么说呢 佬? glm 速度很慢吗 回复
--【捌】--:
好的 感谢 我只看大家都说媲美 opus4.6 没考虑速度 你这样说的确要考虑一下
--【玖】--:
好的 佬 我先开一个月试试 kim 竟然不限量
--【拾】--:
就kimi好用点感觉,有视觉能力很重要
--【拾壹】--:
MiniMax2.7和GLM5相比如何,我昨天才买的MiniMax 30块plan,虽然不开发项目,但偶尔会改改龙虾配置(应该不至于被改坏吧)
--【拾贰】--:
5.1很慢
--【拾叁】--:
好的 佬 我就是先开个月卡试试 现在模型更新的还挺快的
--【拾肆】--:
硅基有kimi2可以白嫖
花钱我觉得还是kimi吧
--【拾伍】--:
如果只是体验可以先去用ollama之类的有免费额度的试试,感觉国外自部署的速度都快很多
--【拾陆】--:
kimi 吧
--【拾柒】--:
kimi 或 glm ,请不要尝试 minimax,那会变得不幸
--【拾捌】--:
glm,说一句等好久才响应
--【拾玖】--:
其实最强的是结合 Grok搜索后的模型 配着 Grok 搜索很无敌 每天推送资讯
目前看到的
- Minmax 49 一个月
- Glm5 49 但是抢不到
- kim2.5 49 一个月
国产御三家有推荐的吗?接入 openclaw 非重度,只轻量使用
自己现在在用的小米 mimov2pro 感觉也很不错,就是不知道后续会不会出 codeplan
网友解答:--【壹】--:
没接 那个速度 有点感人
--【贰】--: flynn:
硅基
佬 有具体路径吗 我去官网看没找到怎么白嫖 注册送 16 元代金券吗
--【叁】--:
m2.7 qwen3.5-plus glm5-terbo 都接过小龙虾 没用出区别…
--【肆】--:
哈哈哈 这么惨吗 我看看 kim2.5
--【伍】--:
佬 不是说 glm5.1 最强吗
--【陆】--:
如果是25年以前的就白嫖kimi2 如果是注册送的 最新的 可以用pro前缀的 kimi2.5 更好 但是16很快就没了
--【柒】--:
怎么说呢 佬? glm 速度很慢吗 回复
--【捌】--:
好的 感谢 我只看大家都说媲美 opus4.6 没考虑速度 你这样说的确要考虑一下
--【玖】--:
好的 佬 我先开一个月试试 kim 竟然不限量
--【拾】--:
就kimi好用点感觉,有视觉能力很重要
--【拾壹】--:
MiniMax2.7和GLM5相比如何,我昨天才买的MiniMax 30块plan,虽然不开发项目,但偶尔会改改龙虾配置(应该不至于被改坏吧)
--【拾贰】--:
5.1很慢
--【拾叁】--:
好的 佬 我就是先开个月卡试试 现在模型更新的还挺快的
--【拾肆】--:
硅基有kimi2可以白嫖
花钱我觉得还是kimi吧
--【拾伍】--:
如果只是体验可以先去用ollama之类的有免费额度的试试,感觉国外自部署的速度都快很多
--【拾陆】--:
kimi 吧
--【拾柒】--:
kimi 或 glm ,请不要尝试 minimax,那会变得不幸
--【拾捌】--:
glm,说一句等好久才响应
--【拾玖】--:
其实最强的是结合 Grok搜索后的模型 配着 Grok 搜索很无敌 每天推送资讯

