C
ChaoBro

UBS 预测:Agentic AI 将推动服务器 CPU 需求暴增 5 倍,2030 年达 1700 亿美元

UBS 预测:Agentic AI 将推动服务器 CPU 需求暴增 5 倍,2030 年达 1700 亿美元

结论先行

当所有人都在盯着 GPU 和 HBM 的时候,UBS 发布了一份被忽视但极其重要的分析:Agentic AI 的崛起正在重塑数据中心的架构,从”GPU 中心训练”转向”复杂编排执行”,这一转变将使服务器 CPU 的可寻址市场(TAM)在 2030 年前增长约 5 倍——从 300 亿美元到 1700 亿美元。

发生了什么

UBS 的研究团队在近期的分析中指出,AI 基础设施的投资重心正在发生结构性偏移:

核心数据

指标2025 年2030 年(预测)增长率
服务器 CPU TAM300 亿美元~1700 亿美元~5x
单 Agent 工作负载 CPU 核心需求基准3-5x3-5 倍

驱动逻辑

  • Agentic AI 需要在 LLM 之上执行复杂的编排、推理、工具调用和状态管理
  • 这些编排任务高度依赖 CPU,而非 GPU
  • 每个 Agent 工作负载需要比传统 GPU 训练多 3-5 倍的 CPU 核心

背景:Big Tech 的 AI Capex 狂潮

摩根士丹利 5 月的预测提供了更大的背景:

公司2026 年 AI Capex2027 年预测
Amazon~1500 亿增长中
Google~1500 亿增长中
Meta~1500 亿增长中
Microsoft~1500 亿增长中
Oracle~200 亿增长中
合计~8050 亿~1.1 万亿

全球数据中心建设总支出预计到 2027 年将达到 2.9 万亿美元

为什么 CPU 需求会暴增

Agentic AI 的工作负载特征

传统的 AI 训练/推理工作负载:

GPU 密集:矩阵计算、张量运算 → GPU 利用率 80%+
CPU 轻量:数据预处理、结果后处理 → CPU 利用率 20-30%

Agentic AI 工作负载:

CPU 密集:任务编排、工具调用、状态管理、多 Agent 协调 → CPU 利用率 60-80%
GPU 辅助:LLM 推理、嵌入计算 → GPU 利用率 40-60%

关键差异:Agent 不只是”调用一次模型”,而是:

  1. 理解任务 → CPU(自然语言处理)
  2. 规划步骤 → CPU(推理与决策)
  3. 调用工具(搜索、数据库、API)→ CPU(网络 I/O、数据处理)
  4. 分析结果 → CPU(结果评估与决策)
  5. 循环迭代 → 以上步骤重复 5-50 次

每一步都需要 CPU 的参与,而 GPU 只在第 1 步和第 4 步的部分环节发挥作用。

具体场景的 CPU 消耗

Agent 场景CPU 密集环节估算 CPU 核心倍数
编码 Agent文件读取、代码分析、Shell 执行、测试运行3-4x
研究 Agent网页爬取、文档解析、知识图谱构建4-5x
数据分析 Agent数据库查询、数据清洗、可视化渲染3-5x
客服 Agent上下文管理、工具路由、会话状态维护2-3x
多 Agent 编排任务分发、结果聚合、冲突解决5-8x

投资和市场影响

受益方

公司/领域受益逻辑关注点
Intelx86 服务器 CPU 市占率最高,直接受益于 CPU 需求增长需关注 AMD 和 ARM 的竞争
AMDEPYC 服务器 CPU 持续增长,AI 工作负载优化中数据中心市场份额持续扩大
ARM 生态(Ampere、AWS Graviton)能效比优势在 Agent 编排场景更明显云厂商自研芯片趋势
内存厂商CPU 密集工作负载需要更大内存带宽和容量HBM 之外的传统 DRAM 需求
云服务商CPU 实例需求增长推高收入需要调整实例组合

被忽视的风险

  1. GPU 投资回报率可能低于预期:如果工作负载向 CPU 偏移,大量 GPU 投资可能面临利用率不足
  2. 电力和散热瓶颈转移:CPU 集群的电力和散热需求与 GPU 集群不同,现有数据中心设计可能不适用
  3. 软件栈不匹配:当前的 AI 基础设施(Kubernetes、推理框架)主要围绕 GPU 优化,CPU 编排的工具体系还不成熟

对中国市场的特殊意义

中国 AI 基础设施面临 GPU 供应限制(美国出口管制),CPU 需求增长反而可能带来新的机会:

  • 国产 CPU(海光、飞腾、龙芯)在 Agent 编排场景的需求可能被激活
  • 华为昇腾的”CPU+NPU”协同架构可能更适合 Agentic AI 工作负载
  • 2026 年中国 AI 芯片出货量预计 300 万颗,其中国产占比持续提升

行动建议

如果你是基础设施投资者

  • 重新评估 AI 基础设施投资组合——CPU 相关标的可能被低估
  • 关注服务器 CPU 供应链(封装、测试、内存配套)
  • 注意数据中心设计趋势的变化

如果你是云用户

  • 评估当前 AI 工作负载的 CPU/GPU 比例——可能过度配置了 GPU
  • 尝试用 CPU 密集型实例运行 Agent 编排任务,可能成本更低
  • 关注云厂商新的 CPU 优化实例类型

如果你是 AI 应用开发者

  • 优化 Agent 的 CPU 使用效率:减少不必要的工具调用、缓存中间结果
  • 在设计 Agent 架构时考虑 CPU 资源约束
  • 评估 CPU vs GPU 的成本效益比,不同场景差异巨大

格局判断

Agentic AI 正在改变我们对”AI 基础设施”的定义。过去两年,行业叙事被 GPU 和 HBM 主导——但 Agentic AI 的实际工作负载分布正在揭示一个被忽视的事实:AI 不仅仅是 GPU 的故事,CPU 的角色正在重新崛起

这不是说 GPU 不重要了——GPU 仍然是训练和大规模推理的核心。但在 AI 从”模型训练”走向”Agent 执行”的过程中,CPU 的价值被严重低估了。UBS 的 5 倍增长预测可能不是终点,而是起点。