C
ChaoBro

H100 租金不降反升:Neocloud 的 GPU 供应荒与 2026 算力经济学

H100 租金不降反升:Neocloud 的 GPU 供应荒与 2026 算力经济学

发生了什么

2026 年 5 月初,一条关于 Neocloud GPU 租赁市场的推文在 AI 基础设施社区引发讨论:

“没有一家 Neocloud 能想到,他们今天出租 H100 的价格竟然比 3 年前还高。”

这条获得了 432 个赞和 50K+ 浏览的推文揭示了一个反直觉的市场现象:在 GPU 产能持续扩张、AI 芯片竞争加剧的背景下,H100 的租赁价格不降反升

为什么 GPU 租金反而更贵了

这背后的逻辑可以拆解为三个层面:

1. 需求侧:前沿厂商提前锁单

即便你有资金,前沿实验室和 Neolabs 已经提前锁定了 2026 年大部分 GPU 供应。超大规模厂商(Microsoft、Google、Meta、Amazon)2026 年的 AI 资本支出预计达到 $7250 亿,同比增长 77%。这些巨额订单优先占据了 NVIDIA 的产能分配。

2. 供给侧:HBM 产能瓶颈

GPU 不是独立芯片——它需要 HBM(高带宽内存)配合。Micron CEO 此前确认,2026 年 HBM 供应已全部售罄,仅能满足客户 50-65% 的需求。HBM 产能的瓶颈直接限制了 GPU 的总产出。

瓶颈环节现状影响
GPU 晶圆NVIDIA 产能持续扩张不是主要瓶颈
HBM 内存三家厂商产能锁死核心瓶颈
CoWoS 封装台积电产能紧张次要瓶颈
电力和冷却数据中心选址受限长期约束

3. 市场结构:Neocloud 的定价权丧失

Neocloud(新兴云计算提供商)的商业模式原本是”批量采购 GPU,以低于 AWS/Azure 的价格零售”。但在供应紧张的市场中:

  • Neocloud 拿不到足够的 GPU 来建立规模效应
  • 即便拿到 GPU,HBM 成本上涨推高了整体 TCO
  • 需求远大于供应,Neocloud 没有降价动机

每 $1M AI 支出的流向

理解 GPU 租金为何上涨,需要看整体 AI 基础设施支出的结构:

支出类别金额(每 $1M)占比关键供应商
GPU 和加速器$520K52%NVIDIA、AMD、Broadcom
网络和光通信$150K15%Arista、Coherent
数据中心基建$200K20%电力、冷却、机柜
内存和其他$130K13%Micron、SK Hynix、Samsung

超过一半的 AI 投资流向 GPU 和加速器——这意味着谁控制了 GPU 供应链,谁就控制了 AI 基础设施的定价权。

格局判断

GPU 租金上涨揭示了一个更深层的趋势:AI 算力正在从”商品化”回归”稀缺化”

2023-2024 年,市场普遍预期随着 GPU 产能扩张和竞争加剧,算力成本会快速下降。但现实是:

  • 需求增速远超产能增速
  • 供应链瓶颈从 GPU 转移到 HBM
  • 前沿厂商的提前锁单挤压了中小玩家的获取空间

这意味着”算力民主化”的叙事在 2026 年面临挑战——拥有 GPU 访问权限正在成为一种竞争优势,而非基础设施。

行动建议

  • AI 创业者:不要假设 GPU 租金会自然下降。在商业模型中按当前或更高价格计算推理成本,预留供应风险缓冲。
  • 模型选型策略:当 GPU 成本高企时,选择推理效率更高的模型(如 MoE 架构、量化版本)比追求最大参数规模更有经济意义。
  • 关注替代方案:AMD MI300 系列、Google TPU、AWS Trainium 等替代芯片的可用性和性价比正在改善。多芯片策略可以降低对单一供应商的依赖。
  • 长期视角:HBM 产能扩建周期为 18-24 个月。2026 年的供应紧张可能在 2027 年下半年开始缓解,但前提是所有主要厂商的扩产计划如期推进。