马斯克说,opus模型的参数量是 5000 B
- 内容介绍
- 文章标签
- 相关推荐
glm-5.1的参数量才754B
感觉差距真是有点大
图片的内容是:
马斯克说grok是0.5t,然后gork是sonnet的二分之一,是opus的十分之一
所以,opus的参数量是5t,sonnet的参数量是1t
5a9f8c980a412a89081c47a8dee4a591080×502 102 KB
网友解答:--【壹】--:
image942×606 54.1 KB
老马说在训练 10T 的,感觉 mythos 大概也是这个参数量吧
--【贰】--:
谁跟你说的是dense = =, 现在就没一家的旗舰是dense
--【叁】--:
可怕.就算模型放出来,个人硬件页买不起搭这个.混合GPU+CPU都要天价
--【肆】--:
你算多一个 0 了,5000B 是 5T
--【伍】--:
以他的身份,他肯定是能接触到这些信息的。
--【陆】--:
第一眼以为这个B 是字节的意思,还奇怪了一下。老马不可能这么没常识
--【柒】--:
不可能的 5000b dense推理速度得慢上天了
--【捌】--:
这么变态?乎乎上有个保守推测(不一定准确)也才1.5T起步。
那要是这么看国内不是一般的缺算力,Opus的速度就算在高峰期也比智谱的稳定且流畅。 菊花你给点力啊。
glm-5.1的参数量才754B
感觉差距真是有点大
图片的内容是:
马斯克说grok是0.5t,然后gork是sonnet的二分之一,是opus的十分之一
所以,opus的参数量是5t,sonnet的参数量是1t
5a9f8c980a412a89081c47a8dee4a591080×502 102 KB
网友解答:--【壹】--:
image942×606 54.1 KB
老马说在训练 10T 的,感觉 mythos 大概也是这个参数量吧
--【贰】--:
谁跟你说的是dense = =, 现在就没一家的旗舰是dense
--【叁】--:
可怕.就算模型放出来,个人硬件页买不起搭这个.混合GPU+CPU都要天价
--【肆】--:
你算多一个 0 了,5000B 是 5T
--【伍】--:
以他的身份,他肯定是能接触到这些信息的。
--【陆】--:
第一眼以为这个B 是字节的意思,还奇怪了一下。老马不可能这么没常识
--【柒】--:
不可能的 5000b dense推理速度得慢上天了
--【捌】--:
这么变态?乎乎上有个保守推测(不一定准确)也才1.5T起步。
那要是这么看国内不是一般的缺算力,Opus的速度就算在高峰期也比智谱的稳定且流畅。 菊花你给点力啊。

