马斯克说,opus模型的参数量是 5000 B

2026-04-11 08:241阅读0评论SEO问题
  • 内容介绍
  • 文章标签
  • 相关推荐
问题描述:

glm-5.1的参数量才754B

感觉差距真是有点大

图片的内容是:

马斯克说grok是0.5t,然后gork是sonnet的二分之一,是opus的十分之一

所以,opus的参数量是5t,sonnet的参数量是1t

5a9f8c980a412a89081c47a8dee4a591080×502 102 KB

网友解答:
--【壹】--:

image942×606 54.1 KB
老马说在训练 10T 的,感觉 mythos 大概也是这个参数量吧


--【贰】--:

谁跟你说的是dense = =, 现在就没一家的旗舰是dense


--【叁】--:

可怕.就算模型放出来,个人硬件页买不起搭这个.混合GPU+CPU都要天价


--【肆】--:

你算多一个 0 了,5000B 是 5T


--【伍】--:

以他的身份,他肯定是能接触到这些信息的。


--【陆】--:

第一眼以为这个B 是字节的意思,还奇怪了一下。老马不可能这么没常识


--【柒】--:

不可能的 5000b dense推理速度得慢上天了


--【捌】--:

这么变态?乎乎上有个保守推测(不一定准确)也才1.5T起步。

那要是这么看国内不是一般的缺算力,Opus的速度就算在高峰期也比智谱的稳定且流畅。 菊花你给点力啊。


--【玖】--:

老马确实应该知道真实信息,但是我怀疑老马也是在吹牛,和川皇在一起时间长了都学坏了


--【拾】--:

盲猜有在挖 claude 和 openai 的人知道的


--【拾壹】--:

没算错,马斯克说grok是0.5t,然后gork是sonnet的二分之一,是opus的十分之一

所以,opus的参数量是5t,sonnet的参数量是1t


--【拾贰】--:

这 opus 有这么大???不敢想象 mythos 有多大。老马说 xai在冲击 10T 的参数量模型


--【拾叁】--:

(帖子已被作者删除)


--【拾肆】--:

这么强,那我的supergrok之后岂不是有用武之地了


--【拾伍】--:

关键claude模型还都是稠密模型,成本就更高了


--【拾陆】--:

差不多就是这么大,之前也有人透露过差不多就在5~6T,所以我吐槽这么大了能不吃资源么,纯粹的力大砖飞,到时候说不定DeepSeek开源了就又降下来了


--【拾柒】--:

这么大,给我们上的也不是满血的,我感觉只存在于API


--【拾捌】--:

肯定不是dense啊,现在都是用MoE架构的


--【拾玖】--:

老马也没看过opus参数吧,感觉就是在说大话瞎吹

标签:人工智能
问题描述:

glm-5.1的参数量才754B

感觉差距真是有点大

图片的内容是:

马斯克说grok是0.5t,然后gork是sonnet的二分之一,是opus的十分之一

所以,opus的参数量是5t,sonnet的参数量是1t

5a9f8c980a412a89081c47a8dee4a591080×502 102 KB

网友解答:
--【壹】--:

image942×606 54.1 KB
老马说在训练 10T 的,感觉 mythos 大概也是这个参数量吧


--【贰】--:

谁跟你说的是dense = =, 现在就没一家的旗舰是dense


--【叁】--:

可怕.就算模型放出来,个人硬件页买不起搭这个.混合GPU+CPU都要天价


--【肆】--:

你算多一个 0 了,5000B 是 5T


--【伍】--:

以他的身份,他肯定是能接触到这些信息的。


--【陆】--:

第一眼以为这个B 是字节的意思,还奇怪了一下。老马不可能这么没常识


--【柒】--:

不可能的 5000b dense推理速度得慢上天了


--【捌】--:

这么变态?乎乎上有个保守推测(不一定准确)也才1.5T起步。

那要是这么看国内不是一般的缺算力,Opus的速度就算在高峰期也比智谱的稳定且流畅。 菊花你给点力啊。


--【玖】--:

老马确实应该知道真实信息,但是我怀疑老马也是在吹牛,和川皇在一起时间长了都学坏了


--【拾】--:

盲猜有在挖 claude 和 openai 的人知道的


--【拾壹】--:

没算错,马斯克说grok是0.5t,然后gork是sonnet的二分之一,是opus的十分之一

所以,opus的参数量是5t,sonnet的参数量是1t


--【拾贰】--:

这 opus 有这么大???不敢想象 mythos 有多大。老马说 xai在冲击 10T 的参数量模型


--【拾叁】--:

(帖子已被作者删除)


--【拾肆】--:

这么强,那我的supergrok之后岂不是有用武之地了


--【拾伍】--:

关键claude模型还都是稠密模型,成本就更高了


--【拾陆】--:

差不多就是这么大,之前也有人透露过差不多就在5~6T,所以我吐槽这么大了能不吃资源么,纯粹的力大砖飞,到时候说不定DeepSeek开源了就又降下来了


--【拾柒】--:

这么大,给我们上的也不是满血的,我感觉只存在于API


--【拾捌】--:

肯定不是dense啊,现在都是用MoE架构的


--【拾玖】--:

老马也没看过opus参数吧,感觉就是在说大话瞎吹

标签:人工智能