C
ChaoBro

2026年AI資本支出が7150億ドルに急増、HBMチップ供給は完売状態

2026年AI資本支出が7150億ドルに急増、HBMチップ供給は完売状態

結論ファースト

4大テック巨头(Amazon、Google、Meta、Microsoft)の2026年AI資本支出は7150億ドルに達すると予測され、ほぼ全增量がAIによって駆動されている。

同時に、AI算力のボトルネックはGPUから**HBM(高帯域幅メモリ)**へ移行している——Micron CEOは最新の決算電話会議で、2026年のHBM供給はすでに完売し、顧客需要の50〜65%しか満たせないと認めた。

データ分解

企業別2026年AI資本支出

企業2026年Capex上限前年比成長主な用途
Amazon (AWS)~2000億ドル加速成長(Bedrock支出は15四半期で最速に回復)GPUクラスター + データセンター + 電力
Google~1900億ドル持続的成長TPU + GPU + データセンターインフラ
Microsoft~1900億ドル高水準維持Azure AI + OpenAIインフラ
Meta~1350億ドル大幅増加Llamaトレーニング + AI広告 + メタバース
合計~7150億ドル

サプライチェーンボトルネックの移行

段階ボトルネック現状
2023-2024GPU容量(NVIDIA A100/H100)大規模な容量拡張、緩和傾向
2025先進パッケージング(CoWoS)TSMCが増設中
2026HBMメモリ業界全体で完売、供給逼迫

HBM市場の構図

サプライヤー市場シェア2026年容量状況備考
SK Hynix~50%Q1収益は前年比3倍、初めて50兆ウォンを突破130億ドルの拡張計画を発表
Micron~25%需要の50〜65%のみ満たせる複数年の量と価格の契約をロック
Samsung~20%追撃中HBM3Eの生産が立ち上がり中
その他~5%

なぜAIは「メモリファースト」になっているのか

Micron CEOは決算電話会議で重要なシグナルを送った:

「AIはメモリファーストの産業になりつつある——なぜなら、モデルとエージェントはより長い「思考」時間とより多くのコンテキスト保持を必要とするからだ。」

技術ロジック

Tokenスループット = HBM容量 × HBM帯域幅

エージェントの思考時間増加 → コンテキストウィンドウ拡大 → KVキャッシュ膨張 → HBM需要の指数関数的成長

モデルが7Bパラメータから70Bへ、コンテキストウィンドウが8Kから128Kへスケールすると、HBM需要は線形を大幅に超えて成長する。

SanDisk のAI逆転

SanDiskの決算もこのトレンドを検証している:

  • 昨年:1株あたり30セントの損失;今四半期:1株あたり23.41ドル(予想14.50ドル)
  • 収益:59.5億ドル(予想47億ドル)
  • 5社のAI企業が長期供給契約を締結

ストレージ業界はAI需要によって損失から暴利への逆転を遂げた。

構図判断

短期的影響(2026年)

  • HBM供給逼迫は年間を通じて持続し、GPU推論コストを押し上げる
  • モデル最適化はメモリ効率にさらに焦点を当てる:量子化、MoE、KVキャッシュ圧縮
  • 国産代替方案(長鑫存储 CXMT など)は政策加速を受ける

中期的トレンド(2027-2028)

  • HBM4規格のリリースが一部の供給圧力を緩和する可能性がある
  • CXLメモリプーリング技術がメモリ割り当てのパラダイムを変える可能性がある
  • 「存算一体」チップアーキテクチャが新たな競争次元になる可能性がある

投資ロジック

トラック確実性上方余地代表的な标的
HBM メーカー★★★★★★★★☆☆SK Hynix, Micron
GPU ベンダー★★★★☆★★★★☆NVIDIA, AMD
データセンター REIT★★★★☆★★☆☆☆データセンター不動産ファンド
メモリ最適化ソフトウェア★★★☆☆★★★★★量子化/圧縮ツールチェーン

アクション提言

AI アプリケーションチーム向け

  • 直ちにモデルのメモリ使用効率を評価し、量子化推論をサポートするフレームワークを優先
  • 同等性能でHBM需要を大幅に削減するMoEアーキテクチャモデルを検討
  • KVキャッシュ最適化技術(PagedAttention、FlashDecoding)に注目

ハードウェア調達向け

  • HBM供給逼迫は12〜18ヶ月持続する可能性があり、早期に供給契約をロックすることを検討
  • 一部のシナリオでコストパフォーマンスに優れたAMD MIシリーズをNVIDIAの代替として評価

開発者向け

  • 限られたハードウェアでより大きなモデルを実行するためのモデル量子化技術(INT4/INT8)を学習
  • llama.cppやMLXなどのローカル推論フレームワークのメモリ最適化アップデートに注目