シグナル
Kimi K2.6が6月のリリースを発表したばかりだというのに、ムーンショットAIの次世代フラッグシップ Kimi K3 の情報がすでに流出している。複数の情報源による相互検証によると、K3は現在集中的な内部テスト段階にあり、今年Q3の正式リリースが予想されている。
コアスペックは注目に値する。モデルの総パラメータ数は2.5兆を超え、内部実験では100万トークンを大幅に超えるコンテキスト長の処理がすでに確認されている。
重要なインクリメント
2.5兆パラメータ:MoEアーキテクチャのさらなる飛躍
Kimi K2.6はすでに1.1兆パラメータのMoEモデルだったが、K3は規模を2.5兆以上に引き上げた。これは単純な「パラメータの積み増し」ではない。MoE(Mixture of Experts)アーキテクチャでは、推論ごとに一部のエキスパートのみが活性化されるため、実際のコムピューティング量は抑えられつつ、モデルの容量と知識密度が質的な向上を遂げている。
注目すべきは、DeepSeek V4 Flash / Pro がすでに1Mコンテキストの価格を極限まで引き下げている中で、Kimi K3が同じ次元でさらに重点投資していることだ。これは、長文コンテキスト + 大規模MoEが中国トップモデルの間でコンセンサスとなった技術路線であることを示している。
百万級コンテキスト:技術の問題ではなく、計算リソースの問題
内部情報筋によると、K3がユーザーに100万コンテキストを公開できない主な理由は技術的なボトルネックではなく、計算リソースだという。
この一文には大きな情報量が含まれている。それは二つのことを示唆している。
- モデルの能力は準備完了 — 内部テスト環境では、100万+ コンテキストがすでに実行されており、結果は許容範囲内だ。
- 推論コストが真のハードル — 百万級のコンテキストは、KVキャッシュのメモリ使用量が線形に増加することを意味し、GPUクラスターのVRAMと帯域幅に極めて高い要求を突きつける。
これは同時に、ムーンショットAIがKimi K2.6リリース後に各中継サイトでのプロモーションを同時に強化した理由も説明している。トークンを稼いで京東カードをもらうという行為は、本質的には使用シナリオとデータフライホイールを拡大しつつ、K3の計算リソース需要に対する運営経験を積んでいるのだ。
K2.6の過渡的役割
Kimi K2.6のポジショニングは明確だ。それは終着点ではなく、K3への橋渡しである。
K2.6のキーワードは「オープンウェイト」と「エージェント向け」だ。1.1兆パラメータ、完全オープンウェイト、長時間の自律実行に特化設計。これらの機能はK3のエコシステムの基盤を整える。開発者コミュニティはまずK2.6を使ってMoEアーキテクチャ下のエージェントワークフローに慣れ、K3リリース時にスムーズにアップグレードできる。
しかし、K2.6が一部の基本タスクで不安定な挙動を示すとのユーザー報告もあり、「K3が出ないと使いものにならない」と直言する声もある。この「過渡期の痛み」は高速イテレーションのモデルリリースサイクルでは珍しくないが、ムーンショットAIがK3の安定性においてより説得力のある答えを出す必要があることも示している。
業界への影響
Kimi K3がリリースされれば、中国産大規模モデルの競争構造が直接書き換えられることになる。
- 長文コンテキスト分野:現在、百万級のコンテキストを扱える中国産モデルは数えるほどしかない。K3が安定して着地すれば、文書分析、コードベース理解、長尺動画分析などのシーンで顕著な優位性を確立できる。
- オープンソース vs クローズドソース:K2.6はすでにウェイトをオープンする選択をしており、K3もこの路線を継承する可能性が高い。これにより、クローズドソースモデルの生存スペースがさらに圧迫される。
- エージェントエコシステム:百万級のコンテキスト + MoEアーキテクチャにより、エージェントはより多くの「メモリ」と「ツール」を持ち、より長期の自律タスクを実行できるようになる。
アドバイス
- エージェント開発者:まずK2.6でエージェントワークフローを構築し、6月のリリース後の実際のパフォーマンスをモニタリングして、Q3のK3アップグレードに備えよう。
- エンタープライズユーザー:百万級のコンテキスト能力が必要な場合、今すぐ計算リソースのソリューションを評価し始めるべきだ。K3リリース後、計算リソースの需要が集中して爆発する可能性があるため、GPUリソースの事前計画が重要だ。
- 研究者:2.5兆MoEのトレーニングと推論戦略は深く注目する価値がある。これはオープンソースモデルがクローズドソースの性能に迫るもう一つの重要なマイルストーンになる可能性がある。