C
ChaoBro

Demis Hassabis YC講演: AGIは2030年前後に到来、しかし事前学習+RLHFでは到底足りない

Demis Hassabis YC講演: AGIは2030年前後に到来、しかし事前学習+RLHFでは到底足りない

コア判断

DeepMind創設者兼CEOのDemis HassabisがY Combinatorでの講演で、迄今为止最も具体的なAGIタイムラインの公開予測を行った:2030年前後

しかし同時に、より重要な判断を示した。現在のフロンティアモデル業界が依存している「大規模事前学習 + RLHF」パラダイムは、AGI達成には到底足りない。2つのコア能力を補完しなければならない。継続学習と長程推論だ。

これは普通の「AI大佬予測」ではない。HassabisはAlphaGoとAlphaFoldの創造者、DeepMindの共同創設者だ。彼のAGI判断は、世界で最も先進的なAIシステムを構築する実際の経験から来ている。

3つの重要論点

1. 事前学習 + RLHFはスタート地点に過ぎない

現在のすべてのフロンティアモデル(GPT-5.5、Claude Opus 4.7、Gemini 3.1 Pro)は同じパラダイムに基づいている:

大規模事前学習 → 指令微调 → RLHFアラインメント → プロダクト

Hassabisの判断は明確だ。このパラダイムには天井がある。事前学習は「一度きり」——モデルの知識は訓練完了後に凍結される。RLHFは訓練データの分布内でのみ最適化でき、訓練中に見たことのない能力をモデルに与えることはできない。

アナロジー:学生に教科書を1冊与えてすべての知識ポイントを暗記させ、その後受験技巧(RLHF)でより良い成績を取らせるようなものだ。しかし真の知能は「暗記」されたものではない。

2. 継続学習が必经の道

継続学習の核心:モデルはデプロイ後も新しい知識とスキルを学習し続け、ゼロから再訓練する必要がない。

能力現在のモデルAGIが必要とするもの
知識更新再訓練またはRAGが必要新情報のリアルタイム学習
スキル習得微调またはプロンプトエンジニアリングが必要新タスクの自律的習得
エラー修正人手ラベルデータによる再訓練が必要対話からの自己改善
経験蓄積毎回「新しい」対話セッションを跨ぐ経験と洞察の蓄積

Hassabisは、DeepMindがすでに継続学習方向に大量のリソースを投入していることを示唆した。AlphaFoldの成功は本質的に「継続学習」のケースだ。タンパク質構造データから継続的に学習し、予測精度を継続的に向上させる。

3. 長程推論がボトルネック

現在のモデルは「短程推論」に優れている。質問に答える、コードを生成する、記事を要約する。しかしマルチステップ推論、クロスドメイン知識統合、長期計画を必要とするタスクでは、性能が大幅に低下する。

Hassabisは例を挙げた。AIシステムに0から1の科学研究プロジェクトを計画させる。仮説の提案、実験の設計、結果の分析、仮説のイテレーション。これには以下が必要:

  • クロスステップ依存:各ステップの決定が前ステップの結果に依存
  • 不確実性管理:実験は失敗する可能性があり、仮説は反証される可能性がある
  • リソース配分:限られた時間と計算リソースの下で最適な決定を行う
  • 自己修正:エラー発見後に方向を調整し、誤ったパスを進み続けない

これらの能力こそ、現在のモデルが最も欠けているものだ。

他のAGI予測との比較

人物/機関AGI予測コアパス
Demis Hassabis (DeepMind)2030年前後継続学習 + 長程推論
Dario Amodei (Anthropic)2026-2027年スケーリング + アラインメント
Sam Altman (OpenAI)具体的な時間なしスケーリング + エージェント
Yann LeCun (Meta)少なくとも10年以上新アーキテクチャ(非LLM)

Hassabisの2030年予測はAmodeiの楽観とLeCunの悲観の間にあるが、より具体的な「欠如能力」リストを示した。単に「より多くのデータ/算力が必要」と言うのではなく、どのような能力突破が必要かを明確に指摘したのだ。

業界への意味

モデルメーカー向け

Scaling Law(モデル規模の拡大)の配当は限界的に減少している。次の突破口は「より大きく」ではなく、「より学習が上手い」ことにある。

DeepMindはすでにGeminiシリーズで継続学習のいくつかの実験を試みている。Hassabisの判断が正しいなら、次の「世代差級」のモデル突破は、パラメータの成長ではなく、継続学習能力の突破から来るだろう。

開発者向け

もしAIアプリケーションを構築しているなら、一つのトレンドを考慮する必要がある。未来のモデルは「使用から学習する」ことがより上手くなる。つまり:

  • アプリケーションが蓄積する対話データは、次世代モデルを訓練する貴重なリソースになる
  • 継続的に学習し自己改善できるエージェントが主流になる
  • 「一度きりデプロイ」のAIアプリケーションは「継続的に進化する」AIアプリケーションに淘汰される

投資家向け

Hassabisの講演は投資方向を示唆している。継続学習インフラだ。以下を含む:

  • オンラインラーニングプラットフォーム
  • モデル継続微调ツール
  • 長程推論ベンチマークと評価体系

一言でまとめる

AGIは「より大きなモデル」ではない。「より上手く学習するシステム」だ。Hassabisの2030年予測と継続学習論は、AI業界にScaling Lawよりも注目すべき方向を指し示した。