結論ファースト
4大テック巨头(Amazon、Google、Meta、Microsoft)の2026年AI資本支出は7150億ドルに達すると予測され、ほぼ全增量がAIによって駆動されている。
同時に、AI算力のボトルネックはGPUから**HBM(高帯域幅メモリ)**へ移行している——Micron CEOは最新の決算電話会議で、2026年のHBM供給はすでに完売し、顧客需要の50〜65%しか満たせないと認めた。
データ分解
企業別2026年AI資本支出
| 企業 | 2026年Capex上限 | 前年比成長 | 主な用途 |
|---|---|---|---|
| Amazon (AWS) | ~2000億ドル | 加速成長(Bedrock支出は15四半期で最速に回復) | GPUクラスター + データセンター + 電力 |
| ~1900億ドル | 持続的成長 | TPU + GPU + データセンターインフラ | |
| Microsoft | ~1900億ドル | 高水準維持 | Azure AI + OpenAIインフラ |
| Meta | ~1350億ドル | 大幅増加 | Llamaトレーニング + AI広告 + メタバース |
| 合計 | ~7150億ドル | — | — |
サプライチェーンボトルネックの移行
| 段階 | ボトルネック | 現状 |
|---|---|---|
| 2023-2024 | GPU容量(NVIDIA A100/H100) | 大規模な容量拡張、緩和傾向 |
| 2025 | 先進パッケージング(CoWoS) | TSMCが増設中 |
| 2026 | HBMメモリ | 業界全体で完売、供給逼迫 |
HBM市場の構図
| サプライヤー | 市場シェア | 2026年容量状況 | 備考 |
|---|---|---|---|
| SK Hynix | ~50% | Q1収益は前年比3倍、初めて50兆ウォンを突破 | 130億ドルの拡張計画を発表 |
| Micron | ~25% | 需要の50〜65%のみ満たせる | 複数年の量と価格の契約をロック |
| Samsung | ~20% | 追撃中 | HBM3Eの生産が立ち上がり中 |
| その他 | ~5% | — | — |
なぜAIは「メモリファースト」になっているのか
Micron CEOは決算電話会議で重要なシグナルを送った:
「AIはメモリファーストの産業になりつつある——なぜなら、モデルとエージェントはより長い「思考」時間とより多くのコンテキスト保持を必要とするからだ。」
技術ロジック
Tokenスループット = HBM容量 × HBM帯域幅
エージェントの思考時間増加 → コンテキストウィンドウ拡大 → KVキャッシュ膨張 → HBM需要の指数関数的成長
モデルが7Bパラメータから70Bへ、コンテキストウィンドウが8Kから128Kへスケールすると、HBM需要は線形を大幅に超えて成長する。
SanDisk のAI逆転
SanDiskの決算もこのトレンドを検証している:
- 昨年:1株あたり30セントの損失;今四半期:1株あたり23.41ドル(予想14.50ドル)
- 収益:59.5億ドル(予想47億ドル)
- 5社のAI企業が長期供給契約を締結
ストレージ業界はAI需要によって損失から暴利への逆転を遂げた。
構図判断
短期的影響(2026年)
- HBM供給逼迫は年間を通じて持続し、GPU推論コストを押し上げる
- モデル最適化はメモリ効率にさらに焦点を当てる:量子化、MoE、KVキャッシュ圧縮
- 国産代替方案(長鑫存储 CXMT など)は政策加速を受ける
中期的トレンド(2027-2028)
- HBM4規格のリリースが一部の供給圧力を緩和する可能性がある
- CXLメモリプーリング技術がメモリ割り当てのパラダイムを変える可能性がある
- 「存算一体」チップアーキテクチャが新たな競争次元になる可能性がある
投資ロジック
| トラック | 確実性 | 上方余地 | 代表的な标的 |
|---|---|---|---|
| HBM メーカー | ★★★★★ | ★★★☆☆ | SK Hynix, Micron |
| GPU ベンダー | ★★★★☆ | ★★★★☆ | NVIDIA, AMD |
| データセンター REIT | ★★★★☆ | ★★☆☆☆ | データセンター不動産ファンド |
| メモリ最適化ソフトウェア | ★★★☆☆ | ★★★★★ | 量子化/圧縮ツールチェーン |
アクション提言
AI アプリケーションチーム向け
- 直ちにモデルのメモリ使用効率を評価し、量子化推論をサポートするフレームワークを優先
- 同等性能でHBM需要を大幅に削減するMoEアーキテクチャモデルを検討
- KVキャッシュ最適化技術(PagedAttention、FlashDecoding)に注目
ハードウェア調達向け
- HBM供給逼迫は12〜18ヶ月持続する可能性があり、早期に供給契約をロックすることを検討
- 一部のシナリオでコストパフォーマンスに優れたAMD MIシリーズをNVIDIAの代替として評価
開発者向け
- 限られたハードウェアでより大きなモデルを実行するためのモデル量子化技術(INT4/INT8)を学習
- llama.cppやMLXなどのローカル推論フレームワークのメモリ最適化アップデートに注目