信号
Kimi K2.6 刚宣布 6 月上线,月之暗面的下一代旗舰 Kimi K3 的情报已经流出。据多方信源交叉验证,K3 正处于内部密集测试阶段,预计今年 Q3 正式发布。
核心参数令人瞩目:模型总规模超过 2.5 万亿参数,内部实验已跑通远超 100 万 token 的上下文长度。
关键增量
2.5 万亿参数:MoE 架构的又一次跃迁
Kimi K2.6 已经是一个 1.1 万亿参数的 MoE 模型,K3 直接把规模拉到 2.5 万亿以上。这不是简单的”参数堆料”——在 MoE(混合专家)架构下,每次推理只激活一部分专家,实际计算量可控,但模型容量和知识密度实现了质的提升。
值得注意的是,DeepSeek V4 Flash / Pro 已经把 1M 上下文的价格打到了极低水平,而 Kimi K3 选择在同一维度上继续加码,说明长上下文 + 大规模 MoE 已经成为国产头部模型共识性的技术路线。
百万级上下文:不是技术问题,是算力问题
据内部信源,K3 限制向用户开放 100 万上下文的主要原因不是技术瓶颈,而是算力资源。
这句话信息量很大。它暗示了两个层面:
- 模型能力已经 ready——在内部测试环境中,100 万+ 上下文已经跑通了,效果可以接受。
- 推理成本是真正的门槛——百万级上下文意味着 KV cache 的内存占用呈线性增长,对 GPU 集群的显存和带宽要求极高。
这也解释了为什么月之暗面在 Kimi K2.6 发布后,同步加大了在各大中转站的推广力度——刷 token 送京东卡,本质是在扩大使用场景和数据飞轮,同时为 K3 的算力需求积累运营经验。
K2.6 的过渡角色
Kimi K2.6 的定位很清晰:它不是终点,而是通往 K3 的桥梁。
K2.6 的关键词是”开源权重”和”面向 Agent”——1.1 万亿参数、完全开放权重、专为长时间自主执行设计。这些特性为 K3 铺好了生态基础:开发者社区可以先用 K2.6 熟悉 MoE 架构下的 Agent 工作流,等 K3 发布后平滑升级。
但也有用户反馈 K2.6 在某些基础任务上表现不稳定,有人直言”k3 不出来感觉是没法用了”。这种”过渡期阵痛”在快速迭代的模型发布节奏中并不罕见,但也说明月之暗面需要在 K3 的稳定性上给出更有说服力的答案。
行业影响
Kimi K3 一旦发布,将直接改写国产大模型的竞争格局:
- 长上下文赛道:目前国内能做到百万级上下文的模型屈指可数。K3 如果稳定落地,将在文档分析、代码库理解、长视频分析等场景建立显著优势。
- 开源 vs 闭源:K2.6 已经选择开放权重,K3 大概率延续这一路线。这将进一步挤压闭源模型的生存空间。
- Agent 生态:百万级上下文 + MoE 架构意味着 Agent 可以携带更多”记忆”和”工具”,执行更长周期的自主任务。
行动建议
- Agent 开发者:可以先用 K2.6 搭建 Agent 工作流,关注 6 月上线后的实际表现,为 Q3 的 K3 升级做准备。
- 企业用户:如果需要百万级上下文能力,建议现在就评估算力方案——K3 发布后算力需求可能集中爆发,提前规划 GPU 资源。
- 研究者:2.5 万亿 MoE 的训练和推理策略值得深度关注,这可能是开源模型逼近闭源性能的又一关键节点。