GLM5.1和Qwen3.6plus相比怎么样
- 内容介绍
- 文章标签
- 相关推荐
A\在让我伤心了,在封了我第11个号之后,决定回到国产模型。
现在主力是Codex,还想有一个快速点的Claude Code模型,做简单的工作,Codex太墨迹了,不想看它吧唧吧唧。
已经有一个GLM MAX了,但是用的人太多,并发受限
--【壹】--:
考虑价格Qwen完胜.
不考虑价格的话100K以内GLM赢. 200K以外Qwen赢.
--【贰】--:
同问。不过更想知道的是qwen3.6与GLM-5的选择,特别是前端代码理解、生成这部分。另外,百炼平台好像还没有glm-5.1。
另外,在reddit上面找到了一些声音:
https://www.reddit.com/r/opencodeCLI/comments/1s8p05c/qwen36_plus_free_vs_glm_5/?tl=zh-hans
--【叁】--:
qwen有免费额度的, 我感觉还是不错的,用来做一些小任务
--【肆】--:
Qwen3.6在我这经常工具都不会用,建议还是glm吧
--【伍】--:
长上下文只能用glm-5-turbo,感觉能用,但是不算特别好用。短上下文glm-5.1暴打Qwen3.6。。。如果框架太重,上来就20-30K的上下文没了,确实很难受,但还是比Qwen3.6体验好多了
--【陆】--:
qwen主打的是小模型开源吧,大模型性能不能打
--【柒】--:
这两个模型都不快啊 国产模型算力不足 速度很难快上去
--【捌】--:
qwen的模型每次都是排名亮眼,实际体验很差
A\在让我伤心了,在封了我第11个号之后,决定回到国产模型。
现在主力是Codex,还想有一个快速点的Claude Code模型,做简单的工作,Codex太墨迹了,不想看它吧唧吧唧。
已经有一个GLM MAX了,但是用的人太多,并发受限
--【壹】--:
考虑价格Qwen完胜.
不考虑价格的话100K以内GLM赢. 200K以外Qwen赢.
--【贰】--:
同问。不过更想知道的是qwen3.6与GLM-5的选择,特别是前端代码理解、生成这部分。另外,百炼平台好像还没有glm-5.1。
另外,在reddit上面找到了一些声音:
https://www.reddit.com/r/opencodeCLI/comments/1s8p05c/qwen36_plus_free_vs_glm_5/?tl=zh-hans
--【叁】--:
qwen有免费额度的, 我感觉还是不错的,用来做一些小任务
--【肆】--:
Qwen3.6在我这经常工具都不会用,建议还是glm吧
--【伍】--:
长上下文只能用glm-5-turbo,感觉能用,但是不算特别好用。短上下文glm-5.1暴打Qwen3.6。。。如果框架太重,上来就20-30K的上下文没了,确实很难受,但还是比Qwen3.6体验好多了
--【陆】--:
qwen主打的是小模型开源吧,大模型性能不能打
--【柒】--:
这两个模型都不快啊 国产模型算力不足 速度很难快上去
--【捌】--:
qwen的模型每次都是排名亮眼,实际体验很差

