AI未来的发展,是硬件革新,还是软件优化?

2026-04-29 08:510阅读0评论SEO基础
  • 内容介绍
  • 文章标签
  • 相关推荐
问题描述: (做个梦)2年后可能能在本地跑Opus4.6了

2028 年 4 月,Deepseek V6 发布,万亿参数规模的 Moe,性能达到 100% Claude Opus 4.6 水平,开源无审查,运行在 M7 Extreme + 1TB 内存的 Mac Studio 上(随着内存厂大量开产线,内存价格并不高,机器售价官网 15 万,闲鱼二手大约 12 万),运行速度 50tokens 每秒,每天生产 300 万输出 token,每天写一部 opus4.6 级别的小说,全自动生产代码…… 不行,口水要流出来了

观此帖有感,在不远的未来,AI 的更新方向会是靠硬件持续革新来提升参数量、推理速度和广度、降低部署成本,还是靠软件、算法、原理的优化来提升智能呢?
个人觉得在摩尔定律行将就木的现在,硬件的临界点似乎近在咫尺,不知道老黄还能挤出多少东西来。而在大模型本身的优化上似乎还大有可为?

网友解答:
--【壹】--:

我是菜鸡,我觉得硬件是必要的,起码目前来讲有足够硬件支持的话价格会便宜一些,发展应该还是算法那边吧


--【贰】--:

当这两种中的任何一种成为现实时,依然还是被弃用命运,就像 ChatGPT 发布时,gpt-3.5 是那么让世界惊艳,而如今同样 3.5 的 Qwen3.5-9B 就可以碾压式吊打 gpt-3.5


--【叁】--:

就算硬智力不突破的情况下,两个其中之一发展都能带来非常颠覆的变化。

  1. 硬件大发展,万元级个人PC可以部署Deepseek V4级别的模型,而且 token速度媲美现在的API
  2. 软件大发展,万元级个人PC部署的小模型,和当前的Deepseek V4智力水平相当。
阅读全文
问题描述: (做个梦)2年后可能能在本地跑Opus4.6了

2028 年 4 月,Deepseek V6 发布,万亿参数规模的 Moe,性能达到 100% Claude Opus 4.6 水平,开源无审查,运行在 M7 Extreme + 1TB 内存的 Mac Studio 上(随着内存厂大量开产线,内存价格并不高,机器售价官网 15 万,闲鱼二手大约 12 万),运行速度 50tokens 每秒,每天生产 300 万输出 token,每天写一部 opus4.6 级别的小说,全自动生产代码…… 不行,口水要流出来了

观此帖有感,在不远的未来,AI 的更新方向会是靠硬件持续革新来提升参数量、推理速度和广度、降低部署成本,还是靠软件、算法、原理的优化来提升智能呢?
个人觉得在摩尔定律行将就木的现在,硬件的临界点似乎近在咫尺,不知道老黄还能挤出多少东西来。而在大模型本身的优化上似乎还大有可为?

网友解答:
--【壹】--:

我是菜鸡,我觉得硬件是必要的,起码目前来讲有足够硬件支持的话价格会便宜一些,发展应该还是算法那边吧


--【贰】--:

当这两种中的任何一种成为现实时,依然还是被弃用命运,就像 ChatGPT 发布时,gpt-3.5 是那么让世界惊艳,而如今同样 3.5 的 Qwen3.5-9B 就可以碾压式吊打 gpt-3.5


--【叁】--:

就算硬智力不突破的情况下,两个其中之一发展都能带来非常颠覆的变化。

  1. 硬件大发展,万元级个人PC可以部署Deepseek V4级别的模型,而且 token速度媲美现在的API
  2. 软件大发展,万元级个人PC部署的小模型,和当前的Deepseek V4智力水平相当。
阅读全文