马斯克说,opus模型的参数量是 5000 B

2026-04-11 08:240阅读0评论SEO问题
  • 内容介绍
  • 文章标签
  • 相关推荐
问题描述:

glm-5.1的参数量才754B

感觉差距真是有点大

图片的内容是:

马斯克说grok是0.5t,然后gork是sonnet的二分之一,是opus的十分之一

所以,opus的参数量是5t,sonnet的参数量是1t

5a9f8c980a412a89081c47a8dee4a591080×502 102 KB

网友解答:
--【壹】--:

image942×606 54.1 KB
老马说在训练 10T 的,感觉 mythos 大概也是这个参数量吧


--【贰】--:

谁跟你说的是dense = =, 现在就没一家的旗舰是dense


--【叁】--:

可怕.就算模型放出来,个人硬件页买不起搭这个.混合GPU+CPU都要天价


--【肆】--:

你算多一个 0 了,5000B 是 5T


--【伍】--:

以他的身份,他肯定是能接触到这些信息的。


--【陆】--:

第一眼以为这个B 是字节的意思,还奇怪了一下。老马不可能这么没常识


--【柒】--:

不可能的 5000b dense推理速度得慢上天了


--【捌】--:

这么变态?乎乎上有个保守推测(不一定准确)也才1.5T起步。

那要是这么看国内不是一般的缺算力,Opus的速度就算在高峰期也比智谱的稳定且流畅。 菊花你给点力啊。

阅读全文
标签:人工智能
问题描述:

glm-5.1的参数量才754B

感觉差距真是有点大

图片的内容是:

马斯克说grok是0.5t,然后gork是sonnet的二分之一,是opus的十分之一

所以,opus的参数量是5t,sonnet的参数量是1t

5a9f8c980a412a89081c47a8dee4a591080×502 102 KB

网友解答:
--【壹】--:

image942×606 54.1 KB
老马说在训练 10T 的,感觉 mythos 大概也是这个参数量吧


--【贰】--:

谁跟你说的是dense = =, 现在就没一家的旗舰是dense


--【叁】--:

可怕.就算模型放出来,个人硬件页买不起搭这个.混合GPU+CPU都要天价


--【肆】--:

你算多一个 0 了,5000B 是 5T


--【伍】--:

以他的身份,他肯定是能接触到这些信息的。


--【陆】--:

第一眼以为这个B 是字节的意思,还奇怪了一下。老马不可能这么没常识


--【柒】--:

不可能的 5000b dense推理速度得慢上天了


--【捌】--:

这么变态?乎乎上有个保守推测(不一定准确)也才1.5T起步。

那要是这么看国内不是一般的缺算力,Opus的速度就算在高峰期也比智谱的稳定且流畅。 菊花你给点力啊。

阅读全文
标签:人工智能