现在的顶级模型都是什么参数量级的?
- 内容介绍
- 文章标签
- 相关推荐
纯好奇。Opus 这么贵,是不是参数量会很恐怖?GPT Pro 模型运行速度超慢,是不是参数量也很恐怖?Gemini 和 claude 都跑在 tpu 上,参数量和跑在 GPU 上的模型会不会有显著差别呢?
网友解答:--【壹】--:
Qwen max 系列多大不知道
Kimi k3 之前传过要上 2T
DeepSeek v4 也据说要上 1T
Minimax m3 也说要扩大参数量,看能不能上 1T
GLM 5 744B 距离 1T 差距也小了
2026年底,国内模型普遍 1T 应该问题不大,开源与否就不知道了
而且这些级别的模型开源与否,与大部分人早就无关了
最多你是某互联网大厂的员工,你的厂子自己部署了某开源模型
厂子只允许你调用私有化部署的大模型
它们开源最有价值的地方,就类似于 Cursor Composer 2
虽然一开始 Cursor 没有指明,它们是基于 Kimi k2.5 的工作
但是现在大家都知道了,也相当于帮 Kimi 踩了一条路
这一点,普通开发者是几乎不可能做到的
社区也用 Opus 4.6 的数据蒸馏,帮助提升 Qwen 3.5
结果是不怎么样
--【贰】--:
之前听说过传言opus早就突破4T了… 回看开源阵营K2才突破1T, 国产算力任重道远啊.
不过反过来看, 才这么点参数量就有六七成的效果, 也可以说未来可期~
--【叁】--:
坐等上p。
--【肆】--:
的确,知识、智能和注意力会随参数量提升的
--【伍】--:
有传,根据老黄的演讲,gpt-5 系列标准杯是 2T 参数量的
IMG_08231885×927 78.6 KB
--【陆】--:
目前主流的路线(比如openai)就是拿钱砸算力,觉得算力越高模型越智能
似乎只有国内的深度求索(deepseek)在尝试降本增效,但就算是满血的ds也不是个人能部署的(富哥除外)
--【柒】--:
看看大家说的,我感觉个人真没法达到这些级别
--【捌】--:
api在2025年7月14日下线了,只存在了130多天,是最短命的正式版api之一了……现在只有pro订阅在ChatGPT内有少量额度……我很喜欢4.5,唉希望oai赶紧端个和它差不多的模型出来吧。
--【玖】--:
的确,感觉 GPT4.5 是 OpenAI 老班子做的最后也是最好的一个模型,可惜现在只有 API 和买最贵套餐的富哥能用上
--【拾】--:
Opus 4 15/75 27 token/s
Opus 4.1 15/75 17 token/s
Opus 4.5 5/25 40 token/s
Opus 4.6 5/25 34 token/s
估计 Opus 4/Opus 4.1 是当今最大参数量的模型
Opus 4.5/4.6 参数量估计少了
还有 GPT 4.5 这个应该也是巨量参数
巨量参数模型 让人感觉细腻
--【拾壹】--:
GPT 4.5 api 应该也没了
GPT 4.5 75/150 16 token/s Latency 1.01s
Wayback machine
GPT-4.5 (Preview) - API, Providers, Stats
GPT-4.5 (Preview) is a research preview of OpenAI’s latest language model, designed to advance capabilities in reasoning, creativity, and multi-turn conversation. Run GPT-4.5 (Preview) with API
--【拾贰】--:
很好奇GPT-4.5是什么参数级的,那么贵。当时api价格75/150,太恐怖了。除了pro级别以外最贵的文本api了吧……
--【拾叁】--:
如果哪天单张消费级gpu就能流畅部署ds R1满血版,那才算AI进入千家万户的起源时刻
--【拾肆】--:
新的ds据说参数量也要比v3大得多,不知道是不是真的
--【拾伍】--:
个人部署要求还是太高了,连 Minimax 这种不那么大的模型个人都很困难…
--【拾陆】--:
mark,我也好奇
--【拾柒】--:
有请各位通灵大师登场开示
--【拾捌】--:
也就是说真正的 SOTA 模型远非开源模型能碰到的,也不是个人所能部署的
--【拾玖】--:
好奇加一
纯好奇。Opus 这么贵,是不是参数量会很恐怖?GPT Pro 模型运行速度超慢,是不是参数量也很恐怖?Gemini 和 claude 都跑在 tpu 上,参数量和跑在 GPU 上的模型会不会有显著差别呢?
网友解答:--【壹】--:
Qwen max 系列多大不知道
Kimi k3 之前传过要上 2T
DeepSeek v4 也据说要上 1T
Minimax m3 也说要扩大参数量,看能不能上 1T
GLM 5 744B 距离 1T 差距也小了
2026年底,国内模型普遍 1T 应该问题不大,开源与否就不知道了
而且这些级别的模型开源与否,与大部分人早就无关了
最多你是某互联网大厂的员工,你的厂子自己部署了某开源模型
厂子只允许你调用私有化部署的大模型
它们开源最有价值的地方,就类似于 Cursor Composer 2
虽然一开始 Cursor 没有指明,它们是基于 Kimi k2.5 的工作
但是现在大家都知道了,也相当于帮 Kimi 踩了一条路
这一点,普通开发者是几乎不可能做到的
社区也用 Opus 4.6 的数据蒸馏,帮助提升 Qwen 3.5
结果是不怎么样
--【贰】--:
之前听说过传言opus早就突破4T了… 回看开源阵营K2才突破1T, 国产算力任重道远啊.
不过反过来看, 才这么点参数量就有六七成的效果, 也可以说未来可期~
--【叁】--:
坐等上p。
--【肆】--:
的确,知识、智能和注意力会随参数量提升的
--【伍】--:
有传,根据老黄的演讲,gpt-5 系列标准杯是 2T 参数量的
IMG_08231885×927 78.6 KB
--【陆】--:
目前主流的路线(比如openai)就是拿钱砸算力,觉得算力越高模型越智能
似乎只有国内的深度求索(deepseek)在尝试降本增效,但就算是满血的ds也不是个人能部署的(富哥除外)
--【柒】--:
看看大家说的,我感觉个人真没法达到这些级别
--【捌】--:
api在2025年7月14日下线了,只存在了130多天,是最短命的正式版api之一了……现在只有pro订阅在ChatGPT内有少量额度……我很喜欢4.5,唉希望oai赶紧端个和它差不多的模型出来吧。
--【玖】--:
的确,感觉 GPT4.5 是 OpenAI 老班子做的最后也是最好的一个模型,可惜现在只有 API 和买最贵套餐的富哥能用上
--【拾】--:
Opus 4 15/75 27 token/s
Opus 4.1 15/75 17 token/s
Opus 4.5 5/25 40 token/s
Opus 4.6 5/25 34 token/s
估计 Opus 4/Opus 4.1 是当今最大参数量的模型
Opus 4.5/4.6 参数量估计少了
还有 GPT 4.5 这个应该也是巨量参数
巨量参数模型 让人感觉细腻
--【拾壹】--:
GPT 4.5 api 应该也没了
GPT 4.5 75/150 16 token/s Latency 1.01s
Wayback machine
GPT-4.5 (Preview) - API, Providers, Stats
GPT-4.5 (Preview) is a research preview of OpenAI’s latest language model, designed to advance capabilities in reasoning, creativity, and multi-turn conversation. Run GPT-4.5 (Preview) with API
--【拾贰】--:
很好奇GPT-4.5是什么参数级的,那么贵。当时api价格75/150,太恐怖了。除了pro级别以外最贵的文本api了吧……
--【拾叁】--:
如果哪天单张消费级gpu就能流畅部署ds R1满血版,那才算AI进入千家万户的起源时刻
--【拾肆】--:
新的ds据说参数量也要比v3大得多,不知道是不是真的
--【拾伍】--:
个人部署要求还是太高了,连 Minimax 这种不那么大的模型个人都很困难…
--【拾陆】--:
mark,我也好奇
--【拾柒】--:
有请各位通灵大师登场开示
--【拾捌】--:
也就是说真正的 SOTA 模型远非开源模型能碰到的,也不是个人所能部署的
--【拾玖】--:
好奇加一

