【读书推荐】读《人工智能简史》有感,这波 AGI 的浪潮是否到了尾声?

2026-04-11 13:461阅读0评论SEO资源
  • 内容介绍
  • 文章标签
  • 相关推荐
问题描述:

之前就在论坛看到有佬友发帖讨论书的事情,最近刚好读完了这本《人工智能简史》,颇多感悟,发出来和大家交流。

最大的体会就是,自从22年GPT-3.5发布到现在,AI技术的这一次浪潮让我们感觉似乎AGI要到了,但是最近又感觉LLMs的发展似乎没那么快了。新模型虽然推出的越来越频繁,但是似乎相比之前变化开始小了(比如MiniMax M2.1到M2.7,感觉都是在训练策略的调整)。是不是说这一次的浪潮也已经开始到尾声了呢?

说回这本书,这本书写的比较早了,首版发于2017年(Transformer的论文也是这一年发表),所以里面的很多观点在现在看来比较过时了,不过作为一本 “简史”,里面介绍到的很多历史的故事还是很有意思的。

下面我摘抄几个点。

  1. 比如70-80年代,专家系统的火热,是不是当时的人们和我们一样觉得AI即将超越人类。专家系统准确率超过一些医生,是不是在当时也有类似VibeCoding、OpenClaw的舆论影响。
    image708×624 115 KB

  2. 80年代以专家系统为代表的AI浪潮,其实是日本第五代计算机计划推动的。(联想一下,第一次浪潮是控制论为基础,主要是美苏对抗推动。第二次是日本的五代机计划。第三次AlexNet之后感觉是Google推动,到现在主要都是几家大型公司在推动,明显的一个感受AI的发展背后都有金融的推动力。)
    image714×357 68 KB

网友解答:
--【壹】--:

是,我也有这种感觉。从Claude Code、Open Claw开始感觉整个发展的趋势,从基模型为主,转向更实践的环节来了,新发布的模型宣传的卖点也都是在使用中,更高效、更可靠、更听话了。

说到这点,这本书里有些内容感觉说的也很有道理。从这个角度看,我们现在比起当年在商业上至少是成功的多的。
image734×547 82.6 KB


--【贰】--:

学习到了!本人拙见,在模型层面来看感觉现在确实进入平台期,但是在不同领域的应用上,还没看见底线在哪?有一种新工业革命的味道出现,短期内能硬件突破的话,或许还会有爆发增长,现在估计是卡在硬件上了。。。 還有token钱钱不够


--【叁】--:

我感觉还没有,只要硬件还在进步,就永远有可能通过扩展模型参数提高能力

从参数量看,外界猜测gpt5系列是t级别的模型和opus是2t级别的模型

对于提高模型性能,除了优化模型和积累优质语料,提高参数规模仍然是必须的,但提高模型参数规模又有赖于硬件

现在虽然摩尔定律失效了,但在ai领域仍然有办法提高参数规模。况且,现在ai硬件制造领域是高度垄断的,如果发生技术扩散,对ai能力提升又是一波利好


--【肆】--:

就是在想继续堆参数会不会像现在这样,一直能有显著的提升。专家系统的年代,当时也有很多学者以为只要构建够大的规则库和知识库,AI就能获得和人一样的智能。但是,后续的发展也说明了,这种理论上的强大知识库、规则库,实际上构建不出来。LLMs现在会不会也在面临这个问题,真的还能大下去吗?


--【伍】--:

硬件是一方面,我们需要 QML (Quantum Machine Learning) 来为 BNN 网络提供物理层面上的支持,其次模型架构本身也没有走到尽头: JEPA / FF 这些网络架构还没有被完全探索. 我们需要设计更好的网络架构,更佳的监督信号传递方式,来促使模型在 latent space 中进行学习.


--【陆】--:

可以去听听谢赛宁新一期播客,我挺认同他的观点的。llm会是所谓的“AGI”中重要的一环,但是不是全部。这一代的llm有本质缺陷,比如语言本身更多是一种交流工具而不是智能的载体,llm相比人脑能量消耗过大等等。他们在探索的世界模型如JEPA还是挺有意思的。

问题描述:

之前就在论坛看到有佬友发帖讨论书的事情,最近刚好读完了这本《人工智能简史》,颇多感悟,发出来和大家交流。

最大的体会就是,自从22年GPT-3.5发布到现在,AI技术的这一次浪潮让我们感觉似乎AGI要到了,但是最近又感觉LLMs的发展似乎没那么快了。新模型虽然推出的越来越频繁,但是似乎相比之前变化开始小了(比如MiniMax M2.1到M2.7,感觉都是在训练策略的调整)。是不是说这一次的浪潮也已经开始到尾声了呢?

说回这本书,这本书写的比较早了,首版发于2017年(Transformer的论文也是这一年发表),所以里面的很多观点在现在看来比较过时了,不过作为一本 “简史”,里面介绍到的很多历史的故事还是很有意思的。

下面我摘抄几个点。

  1. 比如70-80年代,专家系统的火热,是不是当时的人们和我们一样觉得AI即将超越人类。专家系统准确率超过一些医生,是不是在当时也有类似VibeCoding、OpenClaw的舆论影响。
    image708×624 115 KB

  2. 80年代以专家系统为代表的AI浪潮,其实是日本第五代计算机计划推动的。(联想一下,第一次浪潮是控制论为基础,主要是美苏对抗推动。第二次是日本的五代机计划。第三次AlexNet之后感觉是Google推动,到现在主要都是几家大型公司在推动,明显的一个感受AI的发展背后都有金融的推动力。)
    image714×357 68 KB

网友解答:
--【壹】--:

是,我也有这种感觉。从Claude Code、Open Claw开始感觉整个发展的趋势,从基模型为主,转向更实践的环节来了,新发布的模型宣传的卖点也都是在使用中,更高效、更可靠、更听话了。

说到这点,这本书里有些内容感觉说的也很有道理。从这个角度看,我们现在比起当年在商业上至少是成功的多的。
image734×547 82.6 KB


--【贰】--:

学习到了!本人拙见,在模型层面来看感觉现在确实进入平台期,但是在不同领域的应用上,还没看见底线在哪?有一种新工业革命的味道出现,短期内能硬件突破的话,或许还会有爆发增长,现在估计是卡在硬件上了。。。 還有token钱钱不够


--【叁】--:

我感觉还没有,只要硬件还在进步,就永远有可能通过扩展模型参数提高能力

从参数量看,外界猜测gpt5系列是t级别的模型和opus是2t级别的模型

对于提高模型性能,除了优化模型和积累优质语料,提高参数规模仍然是必须的,但提高模型参数规模又有赖于硬件

现在虽然摩尔定律失效了,但在ai领域仍然有办法提高参数规模。况且,现在ai硬件制造领域是高度垄断的,如果发生技术扩散,对ai能力提升又是一波利好


--【肆】--:

就是在想继续堆参数会不会像现在这样,一直能有显著的提升。专家系统的年代,当时也有很多学者以为只要构建够大的规则库和知识库,AI就能获得和人一样的智能。但是,后续的发展也说明了,这种理论上的强大知识库、规则库,实际上构建不出来。LLMs现在会不会也在面临这个问题,真的还能大下去吗?


--【伍】--:

硬件是一方面,我们需要 QML (Quantum Machine Learning) 来为 BNN 网络提供物理层面上的支持,其次模型架构本身也没有走到尽头: JEPA / FF 这些网络架构还没有被完全探索. 我们需要设计更好的网络架构,更佳的监督信号传递方式,来促使模型在 latent space 中进行学习.


--【陆】--:

可以去听听谢赛宁新一期播客,我挺认同他的观点的。llm会是所谓的“AGI”中重要的一环,但是不是全部。这一代的llm有本质缺陷,比如语言本身更多是一种交流工具而不是智能的载体,llm相比人脑能量消耗过大等等。他们在探索的世界模型如JEPA还是挺有意思的。