AI未来的发展,是硬件革新,还是软件优化?

2026-04-29 08:513阅读0评论SEO基础
  • 内容介绍
  • 文章标签
  • 相关推荐
问题描述: (做个梦)2年后可能能在本地跑Opus4.6了

2028 年 4 月,Deepseek V6 发布,万亿参数规模的 Moe,性能达到 100% Claude Opus 4.6 水平,开源无审查,运行在 M7 Extreme + 1TB 内存的 Mac Studio 上(随着内存厂大量开产线,内存价格并不高,机器售价官网 15 万,闲鱼二手大约 12 万),运行速度 50tokens 每秒,每天生产 300 万输出 token,每天写一部 opus4.6 级别的小说,全自动生产代码…… 不行,口水要流出来了

观此帖有感,在不远的未来,AI 的更新方向会是靠硬件持续革新来提升参数量、推理速度和广度、降低部署成本,还是靠软件、算法、原理的优化来提升智能呢?
个人觉得在摩尔定律行将就木的现在,硬件的临界点似乎近在咫尺,不知道老黄还能挤出多少东西来。而在大模型本身的优化上似乎还大有可为?

网友解答:
--【壹】--:

我是菜鸡,我觉得硬件是必要的,起码目前来讲有足够硬件支持的话价格会便宜一些,发展应该还是算法那边吧


--【贰】--:

当这两种中的任何一种成为现实时,依然还是被弃用命运,就像 ChatGPT 发布时,gpt-3.5 是那么让世界惊艳,而如今同样 3.5 的 Qwen3.5-9B 就可以碾压式吊打 gpt-3.5


--【叁】--:

就算硬智力不突破的情况下,两个其中之一发展都能带来非常颠覆的变化。

  1. 硬件大发展,万元级个人PC可以部署Deepseek V4级别的模型,而且 token速度媲美现在的API
  2. 软件大发展,万元级个人PC部署的小模型,和当前的Deepseek V4智力水平相当。

或者未来API速度可以 平均都1000+甚至更高tokens/s


--【肆】--:

目前阶段个人认为还是软件优化, 譬如几个大佬在搞的世界模型


--【伍】--:

我很认可。或许某个新架构的出现就能迅速胜过当前的一切训练成果


--【陆】--:

推理速度提高到这个级别的话,瓶颈就是人类了。我无法想象哪个人类 reviewer 有能力处理这种速度生成的 “资产”


--【柒】--:

一篇论文,一个有别于 Transformer 的新的架构,也许就会成为一次飞跃,就像 Transformer 的出现一样


--【捌】--:

归根结底是从通用计算走向 asic 了啊……


--【玖】--:

又不是只有老黄
cerebras, groq, google, aws 也都还没停下来
硬件的临界点都还没看见呢

cpu 就算了

问题描述: (做个梦)2年后可能能在本地跑Opus4.6了

2028 年 4 月,Deepseek V6 发布,万亿参数规模的 Moe,性能达到 100% Claude Opus 4.6 水平,开源无审查,运行在 M7 Extreme + 1TB 内存的 Mac Studio 上(随着内存厂大量开产线,内存价格并不高,机器售价官网 15 万,闲鱼二手大约 12 万),运行速度 50tokens 每秒,每天生产 300 万输出 token,每天写一部 opus4.6 级别的小说,全自动生产代码…… 不行,口水要流出来了

观此帖有感,在不远的未来,AI 的更新方向会是靠硬件持续革新来提升参数量、推理速度和广度、降低部署成本,还是靠软件、算法、原理的优化来提升智能呢?
个人觉得在摩尔定律行将就木的现在,硬件的临界点似乎近在咫尺,不知道老黄还能挤出多少东西来。而在大模型本身的优化上似乎还大有可为?

网友解答:
--【壹】--:

我是菜鸡,我觉得硬件是必要的,起码目前来讲有足够硬件支持的话价格会便宜一些,发展应该还是算法那边吧


--【贰】--:

当这两种中的任何一种成为现实时,依然还是被弃用命运,就像 ChatGPT 发布时,gpt-3.5 是那么让世界惊艳,而如今同样 3.5 的 Qwen3.5-9B 就可以碾压式吊打 gpt-3.5


--【叁】--:

就算硬智力不突破的情况下,两个其中之一发展都能带来非常颠覆的变化。

  1. 硬件大发展,万元级个人PC可以部署Deepseek V4级别的模型,而且 token速度媲美现在的API
  2. 软件大发展,万元级个人PC部署的小模型,和当前的Deepseek V4智力水平相当。

或者未来API速度可以 平均都1000+甚至更高tokens/s


--【肆】--:

目前阶段个人认为还是软件优化, 譬如几个大佬在搞的世界模型


--【伍】--:

我很认可。或许某个新架构的出现就能迅速胜过当前的一切训练成果


--【陆】--:

推理速度提高到这个级别的话,瓶颈就是人类了。我无法想象哪个人类 reviewer 有能力处理这种速度生成的 “资产”


--【柒】--:

一篇论文,一个有别于 Transformer 的新的架构,也许就会成为一次飞跃,就像 Transformer 的出现一样


--【捌】--:

归根结底是从通用计算走向 asic 了啊……


--【玖】--:

又不是只有老黄
cerebras, groq, google, aws 也都还没停下来
硬件的临界点都还没看见呢

cpu 就算了