国产AI 模型 现在到底使用哪个?

2026-04-11 14:041阅读0评论SEO教程
  • 内容介绍
  • 文章标签
  • 相关推荐
问题描述:

GLM 我受不鸟了,慢慢慢
阿里云 也是超慢
MiniMax 的套餐过期了
Kimi 也过期了。

佬们主要在用哪个? MiniMax 或者Kim 会不会比GLM 好用

网友解答:
--【壹】--:

每个模型都有每个模型的领域吧,主要看干啥用


--【贰】--:

我一直用的kimi k2.5,能识图,并发也高,回复速度也挺快


--【叁】--:

非工作使用下,我在家用 trae cn 的免费 kimi2.5, 无它,它写 uv + python 这个模型写起来效果感觉很不错


--【肆】--:

蹲一下,glm明天过期了,暂时还没想好接下来用哪家的


--【伍】--:

glm兜底


--【陆】--:

一般问题我用glm-5,复杂问题的plan生成用opus/codex, 执行还是glm-5 突出一个节省


--【柒】--:

kimi感觉用用还是可以


--【捌】--: 你说的啊:

gmicloud

有没有人试过 智谱 海外版的套餐? 是不是也跟国内一样拉??


--【玖】--:

我用国外平台商的 glm5,k2.5


--【拾】--:

单轮模型能力口碑最好的是gml5,但是很缺货,除非付费api。


--【拾壹】--:

glm吧


--【拾贰】--:

已经买了 MiniMax Plus 极速版, 真的是纵享丝滑。。


--【拾叁】--:

建议体验codex 论坛分享那么多 国内glm5慢,kimi2.5吧


--【拾肆】--:

用的minimax,感觉还可以


--【拾伍】--:

fireworks ai;gmicloud ai


--【拾陆】--:

qwen


--【拾柒】--:

iflow里面的glm感觉比官方还快……


--【拾捌】--:

佬用的哪个平台的


--【拾玖】--:

桌面端,我现在用kimi,等过期了用grok和google,
玩openclaw,必须买api的话,考虑minimax,便宜点,还是原厂

标签:软件开发
问题描述:

GLM 我受不鸟了,慢慢慢
阿里云 也是超慢
MiniMax 的套餐过期了
Kimi 也过期了。

佬们主要在用哪个? MiniMax 或者Kim 会不会比GLM 好用

网友解答:
--【壹】--:

每个模型都有每个模型的领域吧,主要看干啥用


--【贰】--:

我一直用的kimi k2.5,能识图,并发也高,回复速度也挺快


--【叁】--:

非工作使用下,我在家用 trae cn 的免费 kimi2.5, 无它,它写 uv + python 这个模型写起来效果感觉很不错


--【肆】--:

蹲一下,glm明天过期了,暂时还没想好接下来用哪家的


--【伍】--:

glm兜底


--【陆】--:

一般问题我用glm-5,复杂问题的plan生成用opus/codex, 执行还是glm-5 突出一个节省


--【柒】--:

kimi感觉用用还是可以


--【捌】--: 你说的啊:

gmicloud

有没有人试过 智谱 海外版的套餐? 是不是也跟国内一样拉??


--【玖】--:

我用国外平台商的 glm5,k2.5


--【拾】--:

单轮模型能力口碑最好的是gml5,但是很缺货,除非付费api。


--【拾壹】--:

glm吧


--【拾贰】--:

已经买了 MiniMax Plus 极速版, 真的是纵享丝滑。。


--【拾叁】--:

建议体验codex 论坛分享那么多 国内glm5慢,kimi2.5吧


--【拾肆】--:

用的minimax,感觉还可以


--【拾伍】--:

fireworks ai;gmicloud ai


--【拾陆】--:

qwen


--【拾柒】--:

iflow里面的glm感觉比官方还快……


--【拾捌】--:

佬用的哪个平台的


--【拾玖】--:

桌面端,我现在用kimi,等过期了用grok和google,
玩openclaw,必须买api的话,考虑minimax,便宜点,还是原厂

标签:软件开发