AI未来的发展,是硬件革新,还是软件优化?
- 内容介绍
- 文章标签
- 相关推荐
2028 年 4 月,Deepseek V6 发布,万亿参数规模的 Moe,性能达到 100% Claude Opus 4.6 水平,开源无审查,运行在 M7 Extreme + 1TB 内存的 Mac Studio 上(随着内存厂大量开产线,内存价格并不高,机器售价官网 15 万,闲鱼二手大约 12 万),运行速度 50tokens 每秒,每天生产 300 万输出 token,每天写一部 opus4.6 级别的小说,全自动生产代码…… 不行,口水要流出来了
观此帖有感,在不远的未来,AI 的更新方向会是靠硬件持续革新来提升参数量、推理速度和广度、降低部署成本,还是靠软件、算法、原理的优化来提升智能呢?
个人觉得在摩尔定律行将就木的现在,硬件的临界点似乎近在咫尺,不知道老黄还能挤出多少东西来。而在大模型本身的优化上似乎还大有可为?
--【壹】--:
我是菜鸡,我觉得硬件是必要的,起码目前来讲有足够硬件支持的话价格会便宜一些,发展应该还是算法那边吧
--【贰】--:
当这两种中的任何一种成为现实时,依然还是被弃用命运,就像 ChatGPT 发布时,gpt-3.5 是那么让世界惊艳,而如今同样 3.5 的 Qwen3.5-9B 就可以碾压式吊打 gpt-3.5
--【叁】--:
就算硬智力不突破的情况下,两个其中之一发展都能带来非常颠覆的变化。
- 硬件大发展,万元级个人PC可以部署Deepseek V4级别的模型,而且 token速度媲美现在的API
- 软件大发展,万元级个人PC部署的小模型,和当前的Deepseek V4智力水平相当。
或者未来API速度可以 平均都1000+甚至更高tokens/s
--【肆】--:
目前阶段个人认为还是软件优化, 譬如几个大佬在搞的世界模型
--【伍】--:
我很认可。或许某个新架构的出现就能迅速胜过当前的一切训练成果
--【陆】--:
推理速度提高到这个级别的话,瓶颈就是人类了。我无法想象哪个人类 reviewer 有能力处理这种速度生成的 “资产”
--【柒】--:
一篇论文,一个有别于 Transformer 的新的架构,也许就会成为一次飞跃,就像 Transformer 的出现一样
--【捌】--:
归根结底是从通用计算走向 asic 了啊……
--【玖】--:
又不是只有老黄
cerebras, groq, google, aws 也都还没停下来
硬件的临界点都还没看见呢
cpu 就算了
2028 年 4 月,Deepseek V6 发布,万亿参数规模的 Moe,性能达到 100% Claude Opus 4.6 水平,开源无审查,运行在 M7 Extreme + 1TB 内存的 Mac Studio 上(随着内存厂大量开产线,内存价格并不高,机器售价官网 15 万,闲鱼二手大约 12 万),运行速度 50tokens 每秒,每天生产 300 万输出 token,每天写一部 opus4.6 级别的小说,全自动生产代码…… 不行,口水要流出来了
观此帖有感,在不远的未来,AI 的更新方向会是靠硬件持续革新来提升参数量、推理速度和广度、降低部署成本,还是靠软件、算法、原理的优化来提升智能呢?
个人觉得在摩尔定律行将就木的现在,硬件的临界点似乎近在咫尺,不知道老黄还能挤出多少东西来。而在大模型本身的优化上似乎还大有可为?
--【壹】--:
我是菜鸡,我觉得硬件是必要的,起码目前来讲有足够硬件支持的话价格会便宜一些,发展应该还是算法那边吧
--【贰】--:
当这两种中的任何一种成为现实时,依然还是被弃用命运,就像 ChatGPT 发布时,gpt-3.5 是那么让世界惊艳,而如今同样 3.5 的 Qwen3.5-9B 就可以碾压式吊打 gpt-3.5
--【叁】--:
就算硬智力不突破的情况下,两个其中之一发展都能带来非常颠覆的变化。
- 硬件大发展,万元级个人PC可以部署Deepseek V4级别的模型,而且 token速度媲美现在的API
- 软件大发展,万元级个人PC部署的小模型,和当前的Deepseek V4智力水平相当。
或者未来API速度可以 平均都1000+甚至更高tokens/s
--【肆】--:
目前阶段个人认为还是软件优化, 譬如几个大佬在搞的世界模型
--【伍】--:
我很认可。或许某个新架构的出现就能迅速胜过当前的一切训练成果
--【陆】--:
推理速度提高到这个级别的话,瓶颈就是人类了。我无法想象哪个人类 reviewer 有能力处理这种速度生成的 “资产”
--【柒】--:
一篇论文,一个有别于 Transformer 的新的架构,也许就会成为一次飞跃,就像 Transformer 的出现一样
--【捌】--:
归根结底是从通用计算走向 asic 了啊……
--【玖】--:
又不是只有老黄
cerebras, groq, google, aws 也都还没停下来
硬件的临界点都还没看见呢
cpu 就算了

