Xiaomi MiMo-V2.5 デュアルモデル开源:1T MoE + 310B MoE、100万コンテキスト、100T Tokenインセンティブプログラム

Xiaomi MiMo-V2.5 デュアルモデル开源:1T MoE + 310B MoE、100万コンテキスト、100T Tokenインセンティブプログラム

主要ポイント

Xiaomiは2026年4月下旬に2つの大規模言語モデルをオープンソース化しました。MoEアーキテクチャを採用し、1Tと310Bのパラメータスケールをカバーし、どちらも百万レベルのTokenコンテキストウィンドウをサポートしています。

モデル仕様とアーキテクチャ

項目MiMo-V2.5-ProMiMo-V2.5
総パラメータ1T310B
アクティブパラメータ42B15B
コンテキストウィンドウ1M Token1M Token
アーキテクチャMoEMoE
ライセンスMITMIT
位置づけ複雑Agent + SEマルチモーダルAgent
商用利用✅ 追加許可不要✅ 追加許可不要

競合オープンモデルとの比較

モデル総パラメータアクティブコンテキストライセンス
MiMo-V2.5-Pro1T42B1MMIT
Kimi K2.61T32B1Mオープンソース
DeepSeek-V41.6T49B-オープンソース

Intelligence Indexでは、MiMo V2.5 Proは約54点、GPT-5.5(60点)に後れを取りますが、Kimi K2.6との差は小さくなっています。

100T Tokenインセンティブプログラム

MiMo Orbit 開発者インセンティブプログラム:

  • 最大額: 16億Token
  • 審査: GitHubのアクティビティとAI利用履歴に基づく自動審査
  • 承認速度: 約1分で承認(ユーザー報告)
  • 対象: 高品質AIアプリ開発者

アクション推奨

シナリオ推奨理由
ローカルAgentデプロイMiMo-V2.5(15Bアクティブ)VRAM要件が低い
複雑なコーディングMiMo-V2.5-Proソフトウェアエンジニアリング向け設計
商用アプリケーションどちらでもMITライセンス、追加許可不要
開発者テストMiMo Orbit無料枠ゼロコストでモデル能力を検証