关于GLM5和kimik2.5的真实能力?
- 内容介绍
- 文章标签
- 相关推荐
最近claude没什么便宜渠道,openai一直封号。
glm5和kimi的模型能力到底什么水平?有人说比sonnet4.5强有的又说不如?
我现在有很多glm5和kimi的额度一直没咋用,感觉很亏。
有些自动化的任务和openclaw我一直用的sonnet4.5。
在代码审查,角色扮演等不同领域,哪些领域glm5和kimi能替代sonnet4.5?还是说差很多都替代不了?
求深度用过的大佬解答
--【壹】--:
我闲鱼买了好几个plus轮询很便宜半个月了也没封号
--【贰】--:
如果实在要用国产模型的话首推glm5,其次才是k2.5,个人体感glm5在前端审美方面非常不错
--【叁】--:
有稳定的快速渠道,我用着还行
image376×128 4.29 KB
--【肆】--:
按照现在的说法, 顶尖大模型一更新, vercel,claude, manus 这些公司,就要精简自己系统里的提示词设计。简化 harness
用到国产模型上,就是需要延迟一个版本的简化。
模型能力是关键,但现在不必挡住讨论其他环节了
--【伍】--:
就是太主观了,感觉每天都有人说超过和不如,自己用又不可能两个一起用,被卡住也不知道另一个会不会也一样,不过等实在没渠道也是不得不用了
--【陆】--:
那和sonnet对比呢?主要就是不知道glm5和sonnet4.5的能力区别
--【柒】--:
glm5就是不支持图片的模型啊,我买了lite套餐根本用不了5,现在在用其他渠道,国外很多自部署的渠道都很快,我平时能跑到150tokens/s,高峰时会降低点但是不多
--【捌】--: mi tu:
那和sonnet对比呢?主要就是不知道glm5和sonnet4.5的能力区别
智谱的GLM CODE是有点问题的 卡 慢 还不支持 图片
--【玖】--:
我也想知道。
但,感觉上了一些 agent loop 方案,差距会减小
--【拾】--:
K2.5一直在用,执行任务的话我感觉是不错的,但是说实话跟codex还是有差距。有的时候临时找到codex的渠道蹬一蹬真的会感觉舒服不少。不过Claude没怎么搞,现有渠道稳定性太差不敢用。
--【拾壹】--:
我测试了很久了感觉完全不能和sonnet4.6比,加上强约束比如superpower之类的会好用点但是他会一直改错,出同样结果反而比opus慢了,也就修修简单bug图快可能会用
--【拾贰】--:
只要 tps 够快,首字延迟低,编程用起来爽完全可以平替 sonnet,opus 肯定是比不过的,不过也够用了
--【拾叁】--:
我买了阿里的coding plan glm5 有时候快有时候慢用时候准有时候又不准,折腾不来,不如白嫖5.4 vscode 配codex 插件现在不都是快的,舒服很多
--【拾肆】--:
这个其实很主观。之前问过朋友,大家对国产模型的能力感受都不一样
我感受是 glm5和sonnet4.5差不多,但是不如sonnet 4.6
--【拾伍】--:
一直觉得模型能力是关键,感觉用国产模型是要折腾一下工具了
最近claude没什么便宜渠道,openai一直封号。
glm5和kimi的模型能力到底什么水平?有人说比sonnet4.5强有的又说不如?
我现在有很多glm5和kimi的额度一直没咋用,感觉很亏。
有些自动化的任务和openclaw我一直用的sonnet4.5。
在代码审查,角色扮演等不同领域,哪些领域glm5和kimi能替代sonnet4.5?还是说差很多都替代不了?
求深度用过的大佬解答
--【壹】--:
我闲鱼买了好几个plus轮询很便宜半个月了也没封号
--【贰】--:
如果实在要用国产模型的话首推glm5,其次才是k2.5,个人体感glm5在前端审美方面非常不错
--【叁】--:
有稳定的快速渠道,我用着还行
image376×128 4.29 KB
--【肆】--:
按照现在的说法, 顶尖大模型一更新, vercel,claude, manus 这些公司,就要精简自己系统里的提示词设计。简化 harness
用到国产模型上,就是需要延迟一个版本的简化。
模型能力是关键,但现在不必挡住讨论其他环节了
--【伍】--:
就是太主观了,感觉每天都有人说超过和不如,自己用又不可能两个一起用,被卡住也不知道另一个会不会也一样,不过等实在没渠道也是不得不用了
--【陆】--:
那和sonnet对比呢?主要就是不知道glm5和sonnet4.5的能力区别
--【柒】--:
glm5就是不支持图片的模型啊,我买了lite套餐根本用不了5,现在在用其他渠道,国外很多自部署的渠道都很快,我平时能跑到150tokens/s,高峰时会降低点但是不多
--【捌】--: mi tu:
那和sonnet对比呢?主要就是不知道glm5和sonnet4.5的能力区别
智谱的GLM CODE是有点问题的 卡 慢 还不支持 图片
--【玖】--:
我也想知道。
但,感觉上了一些 agent loop 方案,差距会减小
--【拾】--:
K2.5一直在用,执行任务的话我感觉是不错的,但是说实话跟codex还是有差距。有的时候临时找到codex的渠道蹬一蹬真的会感觉舒服不少。不过Claude没怎么搞,现有渠道稳定性太差不敢用。
--【拾壹】--:
我测试了很久了感觉完全不能和sonnet4.6比,加上强约束比如superpower之类的会好用点但是他会一直改错,出同样结果反而比opus慢了,也就修修简单bug图快可能会用
--【拾贰】--:
只要 tps 够快,首字延迟低,编程用起来爽完全可以平替 sonnet,opus 肯定是比不过的,不过也够用了
--【拾叁】--:
我买了阿里的coding plan glm5 有时候快有时候慢用时候准有时候又不准,折腾不来,不如白嫖5.4 vscode 配codex 插件现在不都是快的,舒服很多
--【拾肆】--:
这个其实很主观。之前问过朋友,大家对国产模型的能力感受都不一样
我感受是 glm5和sonnet4.5差不多,但是不如sonnet 4.6
--【拾伍】--:
一直觉得模型能力是关键,感觉用国产模型是要折腾一下工具了

