コア判断
DeepMind創設者兼CEOのDemis HassabisがY Combinatorでの講演で、迄今为止最も具体的なAGIタイムラインの公開予測を行った:2030年前後。
しかし同時に、より重要な判断を示した。現在のフロンティアモデル業界が依存している「大規模事前学習 + RLHF」パラダイムは、AGI達成には到底足りない。2つのコア能力を補完しなければならない。継続学習と長程推論だ。
これは普通の「AI大佬予測」ではない。HassabisはAlphaGoとAlphaFoldの創造者、DeepMindの共同創設者だ。彼のAGI判断は、世界で最も先進的なAIシステムを構築する実際の経験から来ている。
3つの重要論点
1. 事前学習 + RLHFはスタート地点に過ぎない
現在のすべてのフロンティアモデル(GPT-5.5、Claude Opus 4.7、Gemini 3.1 Pro)は同じパラダイムに基づいている:
大規模事前学習 → 指令微调 → RLHFアラインメント → プロダクト
Hassabisの判断は明確だ。このパラダイムには天井がある。事前学習は「一度きり」——モデルの知識は訓練完了後に凍結される。RLHFは訓練データの分布内でのみ最適化でき、訓練中に見たことのない能力をモデルに与えることはできない。
アナロジー:学生に教科書を1冊与えてすべての知識ポイントを暗記させ、その後受験技巧(RLHF)でより良い成績を取らせるようなものだ。しかし真の知能は「暗記」されたものではない。
2. 継続学習が必经の道
継続学習の核心:モデルはデプロイ後も新しい知識とスキルを学習し続け、ゼロから再訓練する必要がない。
| 能力 | 現在のモデル | AGIが必要とするもの |
|---|---|---|
| 知識更新 | 再訓練またはRAGが必要 | 新情報のリアルタイム学習 |
| スキル習得 | 微调またはプロンプトエンジニアリングが必要 | 新タスクの自律的習得 |
| エラー修正 | 人手ラベルデータによる再訓練が必要 | 対話からの自己改善 |
| 経験蓄積 | 毎回「新しい」対話 | セッションを跨ぐ経験と洞察の蓄積 |
Hassabisは、DeepMindがすでに継続学習方向に大量のリソースを投入していることを示唆した。AlphaFoldの成功は本質的に「継続学習」のケースだ。タンパク質構造データから継続的に学習し、予測精度を継続的に向上させる。
3. 長程推論がボトルネック
現在のモデルは「短程推論」に優れている。質問に答える、コードを生成する、記事を要約する。しかしマルチステップ推論、クロスドメイン知識統合、長期計画を必要とするタスクでは、性能が大幅に低下する。
Hassabisは例を挙げた。AIシステムに0から1の科学研究プロジェクトを計画させる。仮説の提案、実験の設計、結果の分析、仮説のイテレーション。これには以下が必要:
- クロスステップ依存:各ステップの決定が前ステップの結果に依存
- 不確実性管理:実験は失敗する可能性があり、仮説は反証される可能性がある
- リソース配分:限られた時間と計算リソースの下で最適な決定を行う
- 自己修正:エラー発見後に方向を調整し、誤ったパスを進み続けない
これらの能力こそ、現在のモデルが最も欠けているものだ。
他のAGI予測との比較
| 人物/機関 | AGI予測 | コアパス |
|---|---|---|
| Demis Hassabis (DeepMind) | 2030年前後 | 継続学習 + 長程推論 |
| Dario Amodei (Anthropic) | 2026-2027年 | スケーリング + アラインメント |
| Sam Altman (OpenAI) | 具体的な時間なし | スケーリング + エージェント |
| Yann LeCun (Meta) | 少なくとも10年以上 | 新アーキテクチャ(非LLM) |
Hassabisの2030年予測はAmodeiの楽観とLeCunの悲観の間にあるが、より具体的な「欠如能力」リストを示した。単に「より多くのデータ/算力が必要」と言うのではなく、どのような能力突破が必要かを明確に指摘したのだ。
業界への意味
モデルメーカー向け
Scaling Law(モデル規模の拡大)の配当は限界的に減少している。次の突破口は「より大きく」ではなく、「より学習が上手い」ことにある。
DeepMindはすでにGeminiシリーズで継続学習のいくつかの実験を試みている。Hassabisの判断が正しいなら、次の「世代差級」のモデル突破は、パラメータの成長ではなく、継続学習能力の突破から来るだろう。
開発者向け
もしAIアプリケーションを構築しているなら、一つのトレンドを考慮する必要がある。未来のモデルは「使用から学習する」ことがより上手くなる。つまり:
- アプリケーションが蓄積する対話データは、次世代モデルを訓練する貴重なリソースになる
- 継続的に学習し自己改善できるエージェントが主流になる
- 「一度きりデプロイ」のAIアプリケーションは「継続的に進化する」AIアプリケーションに淘汰される
投資家向け
Hassabisの講演は投資方向を示唆している。継続学習インフラだ。以下を含む:
- オンラインラーニングプラットフォーム
- モデル継続微调ツール
- 長程推論ベンチマークと評価体系
一言でまとめる
AGIは「より大きなモデル」ではない。「より上手く学習するシステム」だ。Hassabisの2030年予測と継続学習論は、AI業界にScaling Lawよりも注目すべき方向を指し示した。