glm5.1上线z.ai
- 内容介绍
- 相关推荐
image496×623 12.6 KB
z.ai上线了glm5.1,各位佬可以体验下,我这最近使用了一段时间感觉非常强
--【壹】--:
哈哈哈,蒸的来源太多了吗?随机到别地方了。。
--【贰】--:
哇,内网部署,那很爽了,尽情开蹬啊这是
怎么样有claude sonnet 3.7系列那味了不?
--【叁】--:
太贵了 ,买不起也用不起,等一个热心的佬分享api
--【肆】--:
去z.ai上体验了下,感觉没啥子区别,第一次还报错说人数太多了,叫我回退到glm5用
--【伍】--:
内网部署,羡慕啊佬, 能透露一下, 内网部署的 至少需要什么配置才有用吗?
--【陆】--:
一步一报429,glm是小霸王服务器么?真的很无奈啊,这钱花的~
--【柒】--:
不卡的话还行吧,复杂任务确实不会跟以前一样一堆问题了,没拿什么太难的任务交给他,只看我我个人的需求目前感觉各家模型都能做的挺好,所以用起来其实体感没啥区别,就是希望能优化一下体验,现在卡的真没法用了
--【捌】--:
感觉比glm-5好用。。。今天在cc里简单测了下对手头项目的理解。公司内网部署的
--【玖】--:
海外站会比国内流畅一些吗,如果是的话,我就冲了
--【拾】--:
这是论坛的逻辑推理测试题。。。佬友们的关注点好奇怪
--【拾壹】--:
我没用过claude的,都说是sonnet4.5的水平。我第一感觉最深的是让他梳理代码库他能给你讲通俗易懂的大白话而且关节环节不落下,而codex说的真的我就很难懂,但是codex执行能力还是很强的。
--【拾贰】--:
喂,110吗,这样有个佬天天问ai怎么破解保险箱密码
--【拾叁】--:
强很多,这次5.1提升整体蛮大的,感觉智谱现在有高人指点,越来越好了
--【拾肆】--:
GLM:我蒸!我使劲蒸!
用户:哇!GLM蒸德C!
Claude:别蒸啦!要被蒸干啦!
--【拾伍】--:
所以它帮你破解保险箱密码了吗。。。。。
--【拾陆】--:
8卡h20(141GB版)服务器,买的早现在内存涨价机子还升值了。
不是所有人都会同时内网开发,所以目测最高5人同时使用的情况下速度我感觉还行,比现在codex 5.4 xhigh稍微慢一点。单人使用的时候很快的。
其实启动的时候我看了,vllm只够留下了230K上下文左右的KVcache空间,也就是说人多的话缓存经常会清理从而拖慢速度
--【拾柒】--:
我感觉这波营销真的太强了,体验下来应该没有特别惊艳的地方
--【拾捌】--:
在claude降智,openai砍额度+不说人话的今天,glm强的可怕
--【拾玖】--:
image862×187 13.2 KB
glm5.1这玩意儿咋说,不是claude架构嘛
image496×623 12.6 KB
z.ai上线了glm5.1,各位佬可以体验下,我这最近使用了一段时间感觉非常强
--【壹】--:
哈哈哈,蒸的来源太多了吗?随机到别地方了。。
--【贰】--:
哇,内网部署,那很爽了,尽情开蹬啊这是
怎么样有claude sonnet 3.7系列那味了不?
--【叁】--:
太贵了 ,买不起也用不起,等一个热心的佬分享api
--【肆】--:
去z.ai上体验了下,感觉没啥子区别,第一次还报错说人数太多了,叫我回退到glm5用
--【伍】--:
内网部署,羡慕啊佬, 能透露一下, 内网部署的 至少需要什么配置才有用吗?
--【陆】--:
一步一报429,glm是小霸王服务器么?真的很无奈啊,这钱花的~
--【柒】--:
不卡的话还行吧,复杂任务确实不会跟以前一样一堆问题了,没拿什么太难的任务交给他,只看我我个人的需求目前感觉各家模型都能做的挺好,所以用起来其实体感没啥区别,就是希望能优化一下体验,现在卡的真没法用了
--【捌】--:
感觉比glm-5好用。。。今天在cc里简单测了下对手头项目的理解。公司内网部署的
--【玖】--:
海外站会比国内流畅一些吗,如果是的话,我就冲了
--【拾】--:
这是论坛的逻辑推理测试题。。。佬友们的关注点好奇怪
--【拾壹】--:
我没用过claude的,都说是sonnet4.5的水平。我第一感觉最深的是让他梳理代码库他能给你讲通俗易懂的大白话而且关节环节不落下,而codex说的真的我就很难懂,但是codex执行能力还是很强的。
--【拾贰】--:
喂,110吗,这样有个佬天天问ai怎么破解保险箱密码
--【拾叁】--:
强很多,这次5.1提升整体蛮大的,感觉智谱现在有高人指点,越来越好了
--【拾肆】--:
GLM:我蒸!我使劲蒸!
用户:哇!GLM蒸德C!
Claude:别蒸啦!要被蒸干啦!
--【拾伍】--:
所以它帮你破解保险箱密码了吗。。。。。
--【拾陆】--:
8卡h20(141GB版)服务器,买的早现在内存涨价机子还升值了。
不是所有人都会同时内网开发,所以目测最高5人同时使用的情况下速度我感觉还行,比现在codex 5.4 xhigh稍微慢一点。单人使用的时候很快的。
其实启动的时候我看了,vllm只够留下了230K上下文左右的KVcache空间,也就是说人多的话缓存经常会清理从而拖慢速度
--【拾柒】--:
我感觉这波营销真的太强了,体验下来应该没有特别惊艳的地方
--【拾捌】--:
在claude降智,openai砍额度+不说人话的今天,glm强的可怕
--【拾玖】--:
image862×187 13.2 KB
glm5.1这玩意儿咋说,不是claude架构嘛

