现在的顶级模型都是什么参数量级的?

2026-04-11 14:491阅读0评论SEO资源
  • 内容介绍
  • 文章标签
  • 相关推荐
问题描述:

纯好奇。Opus 这么贵,是不是参数量会很恐怖?GPT Pro 模型运行速度超慢,是不是参数量也很恐怖?Gemini 和 claude 都跑在 tpu 上,参数量和跑在 GPU 上的模型会不会有显著差别呢?

网友解答:
--【壹】--:

Qwen max 系列多大不知道

Kimi k3 之前传过要上 2T
DeepSeek v4 也据说要上 1T
Minimax m3 也说要扩大参数量,看能不能上 1T
GLM 5 744B 距离 1T 差距也小了

2026年底,国内模型普遍 1T 应该问题不大,开源与否就不知道了
而且这些级别的模型开源与否,与大部分人早就无关了

最多你是某互联网大厂的员工,你的厂子自己部署了某开源模型
厂子只允许你调用私有化部署的大模型

它们开源最有价值的地方,就类似于 Cursor Composer 2
虽然一开始 Cursor 没有指明,它们是基于 Kimi k2.5 的工作
但是现在大家都知道了,也相当于帮 Kimi 踩了一条路

这一点,普通开发者是几乎不可能做到的

社区也用 Opus 4.6 的数据蒸馏,帮助提升 Qwen 3.5
结果是不怎么样


--【贰】--:

之前听说过传言opus早就突破4T了… 回看开源阵营K2才突破1T, 国产算力任重道远啊.

不过反过来看, 才这么点参数量就有六七成的效果, 也可以说未来可期~


--【叁】--:

坐等上p。


--【肆】--:

的确,知识、智能和注意力会随参数量提升的


--【伍】--:

有传,根据老黄的演讲,gpt-5 系列标准杯是 2T 参数量的
IMG_08231885×927 78.6 KB


--【陆】--:

目前主流的路线(比如openai)就是拿钱砸算力,觉得算力越高模型越智能
似乎只有国内的深度求索(deepseek)在尝试降本增效,但就算是满血的ds也不是个人能部署的(富哥除外)


--【柒】--:

看看大家说的,我感觉个人真没法达到这些级别


--【捌】--:

api在2025年7月14日下线了,只存在了130多天,是最短命的正式版api之一了……现在只有pro订阅在ChatGPT内有少量额度……我很喜欢4.5,唉希望oai赶紧端个和它差不多的模型出来吧。


--【玖】--:

的确,感觉 GPT4.5 是 OpenAI 老班子做的最后也是最好的一个模型,可惜现在只有 API 和买最贵套餐的富哥能用上


--【拾】--:

Opus 4 15/75 27 token/s
Opus 4.1 15/75 17 token/s

Opus 4.5 5/25 40 token/s
Opus 4.6 5/25 34 token/s

估计 Opus 4/Opus 4.1 是当今最大参数量的模型

Opus 4.5/4.6 参数量估计少了

还有 GPT 4.5 这个应该也是巨量参数

巨量参数模型 让人感觉细腻


--【拾壹】--:

GPT 4.5 api 应该也没了

GPT 4.5 75/150 16 token/s Latency 1.01s

Wayback machine

web.archive.org

GPT-4.5 (Preview) - API, Providers, Stats

GPT-4.5 (Preview) is a research preview of OpenAI’s latest language model, designed to advance capabilities in reasoning, creativity, and multi-turn conversation. Run GPT-4.5 (Preview) with API


--【拾贰】--:

很好奇GPT-4.5是什么参数级的,那么贵。当时api价格75/150,太恐怖了。除了pro级别以外最贵的文本api了吧……


--【拾叁】--:

如果哪天单张消费级gpu就能流畅部署ds R1满血版,那才算AI进入千家万户的起源时刻


--【拾肆】--:

新的ds据说参数量也要比v3大得多,不知道是不是真的


--【拾伍】--:

个人部署要求还是太高了,连 Minimax 这种不那么大的模型个人都很困难…


--【拾陆】--:

mark,我也好奇


--【拾柒】--:

有请各位通灵大师登场开示


--【拾捌】--:

也就是说真正的 SOTA 模型远非开源模型能碰到的,也不是个人所能部署的


--【拾玖】--:

好奇加一