在代理式AI时代,CPU能否超越GPU的崛起趋势?
- 内容介绍
- 文章标签
- 相关推荐
本文共计571个文字,预计阅读时间需要3分钟。
在2026年第一季度财报后,AMD首席执行官苏姿丰在业绩电话会议中指出,随着代理式人工智能(Agentic AI)时代的加速到来,数据中心对CPU的需求将以前所未有的速度增长。她强调,当前计算节点中CPU与GPU的数量配比,正从过往的一核CPU搭配四至八核GPU模式,快速向1:1趋势发展;长远来看,单节点内CPU数量将反超GPU,这已不再是理论假设。
她进一步说明,传统AI训练与推理架构中,CPU主要承担任务分发、内存管理及GPU唤醒等辅助职能,而核心算力则由GPU承担。但在代理式AI场景下,成百上千个具备感知、决策与执行能力的智能体需持续进行状态维护、上下文同步、任务路由与协作调度——这些高并发、低延迟、强逻辑性的操作高度依赖CPU的通用计算与控制能力。因此,CPU的角色正从“GPU协处理器”跃升为“智能体中枢”。
苏姿丰预测,当大规模智能体集群成为主流部署形态时,单服务器节点配备多颗高性能CPU(如EPYC系列)、仅搭配少量GPU的配置将成为新常态。这标志着AI基础设施的重心,正从“以模型计算为中心”转向“以智能体运行为中心”。所谓代理式AI,即在大语言模型基础上构建可自主规划、调用工具、迭代优化的软件智能体,例如在DevOps流程中,一个智能体可独立完成代码审查、缺陷定位、补丁生成、编译验证与反馈响应全流程,全程无需人工介入。
为支撑此类分布式、自治化、长生命周期的任务流,底层系统必须依靠CPU提供高吞吐的任务编排、实时的状态追踪、细粒度的资源仲裁以及跨智能体的通信协调。在此类新型负载驱动下,CPU已不再局限于“启动GPU”的边缘角色,而是成为整个代理式AI系统稳定运行的“神经中枢”与“指挥大脑”。
尽管GPU在模型训练与高密度推理领域仍保持强劲增长,但CPU的利用率、带宽需求与核心密度正同步大幅提升。AMD方面透露,其最新一代服务器CPU产能已被全球头部AI实验室及超大规模云厂商全部预订,订单主要来自代理式AI工作负载的爆发性部署需求。这一现象预示着:未来AI算力架构中,CPU与GPU或将摆脱传统的主从关系,走向功能互补、负载均衡、甚至在部分场景下由CPU主导的新范式。
本文共计571个文字,预计阅读时间需要3分钟。
在2026年第一季度财报后,AMD首席执行官苏姿丰在业绩电话会议中指出,随着代理式人工智能(Agentic AI)时代的加速到来,数据中心对CPU的需求将以前所未有的速度增长。她强调,当前计算节点中CPU与GPU的数量配比,正从过往的一核CPU搭配四至八核GPU模式,快速向1:1趋势发展;长远来看,单节点内CPU数量将反超GPU,这已不再是理论假设。
她进一步说明,传统AI训练与推理架构中,CPU主要承担任务分发、内存管理及GPU唤醒等辅助职能,而核心算力则由GPU承担。但在代理式AI场景下,成百上千个具备感知、决策与执行能力的智能体需持续进行状态维护、上下文同步、任务路由与协作调度——这些高并发、低延迟、强逻辑性的操作高度依赖CPU的通用计算与控制能力。因此,CPU的角色正从“GPU协处理器”跃升为“智能体中枢”。
苏姿丰预测,当大规模智能体集群成为主流部署形态时,单服务器节点配备多颗高性能CPU(如EPYC系列)、仅搭配少量GPU的配置将成为新常态。这标志着AI基础设施的重心,正从“以模型计算为中心”转向“以智能体运行为中心”。所谓代理式AI,即在大语言模型基础上构建可自主规划、调用工具、迭代优化的软件智能体,例如在DevOps流程中,一个智能体可独立完成代码审查、缺陷定位、补丁生成、编译验证与反馈响应全流程,全程无需人工介入。
为支撑此类分布式、自治化、长生命周期的任务流,底层系统必须依靠CPU提供高吞吐的任务编排、实时的状态追踪、细粒度的资源仲裁以及跨智能体的通信协调。在此类新型负载驱动下,CPU已不再局限于“启动GPU”的边缘角色,而是成为整个代理式AI系统稳定运行的“神经中枢”与“指挥大脑”。
尽管GPU在模型训练与高密度推理领域仍保持强劲增长,但CPU的利用率、带宽需求与核心密度正同步大幅提升。AMD方面透露,其最新一代服务器CPU产能已被全球头部AI实验室及超大规模云厂商全部预订,订单主要来自代理式AI工作负载的爆发性部署需求。这一现象预示着:未来AI算力架构中,CPU与GPU或将摆脱传统的主从关系,走向功能互补、负载均衡、甚至在部分场景下由CPU主导的新范式。

