結論
HuggingFaceがml-internを発表。AIエージェントがMLパイプライン全体を自動化:論文を読む、実験を再現、モデルを訓練、Hubにプッシュ。1週間で7,774スターを獲得。
ワークフロー
論文PDF/arXiv ID → 論文解析 → コード生成 → 訓練エンジン → 評価・デプロイ → Hub
主要機能
| 機能 | 説明 | 実装 |
|---|---|---|
| 論文読解 | アーキテクチャ、ハイパーパラメータ、データセットを抽出 | LLM + 論文構造化抽出 |
| コード生成 | 論文から実行可能な訓練コードを生成 | Claude Code統合 |
| 自動訓練 | 利用可能なGPUで訓練を実行 | ローカル/クラウドGPUスケジューリング |
| モデル評価 | 標準ベンチマークで評価 | 内蔵評価フレームワーク |
| Hubプッシュ | 自動パッケージ化してHubにプッシュ | Hub API統合 |
クイックスタート
pip install ml-intern
from ml_intern import MLIntern
intern = MLIntern(agent_model="claude-sonnet-4-20260414", gpu_config="auto")
result = intern.process_paper(paper_id="2604.xxxxx", dataset="custom", train_hours=4)
CLIモード
ml-intern process --arxiv 2604.xxxxx --gpu auto
ml-intern list
制限事項
- GPUが必要: 訓練にはGPUリソースが必須
- 論文品質に依存: 明確な論文ほどコード生成が正確
- 万能ではない: 革新的なアーキテクチャは手動調整が必要