核心结论
截至 2026 年 4 月底,中国大模型市场已形成 九强并立 的竞争格局,各家选择了不同的突围路径:
| 公司 | 主力模型 | 策略 | 差异化 |
|---|---|---|---|
| 阿里 | Qwen 3.6 系列 | 开源生态主导 | MoE + Dense 双线并行 |
| DeepSeek | V4 系列 | 结构性创新 | 国产卡原生训练 + 低成本 |
| 百度 | 文心 5.1 | 推理性价比 | MoE 瘦身 + Arena 冲榜 |
| 智谱 | GLM 5.1 | 全栈自研 | 编程 + 推理双优 |
| 月之暗面 | Kimi K2.6 | 开源 + 长文本 | 设计 Arena 冠军 |
| 小米 | MiMo-V2.5 | 硬件+AI 协同 | MIT 开源 + 100T 免费 token |
| MiniMax | M2.7 | 自我进化 | 自进化架构 |
| 商汤 | SenseNova U1 | 多模态统一 | NEO-Unify 架构 |
| 腾讯 | Hunyuan 3 | 生态整合 | 微信/腾讯云深度集成 |
这个格局有两个值得关注的结构性变化。
变化一:开源成为主战场
4 月的中国大模型圈,最活跃的声音来自开源社区。Qwen 3.6 系列在 2 月底发布 MoE 和 Dense 两个模型后占据大部分热度,4 月 15 号的 Qwen3.6-35B-A3B 接续热度,4 月底的 Qwen3.6-27B 直接引爆开源社区——小模型只激活 3B 参数却拥有 35B 的效果。
与此同时,小米 MiMo-V2.5 采用 MIT 许可证开源,提供 100T 免费 token 给开发者和创作者。DeepSeek V4 则在国产卡上完成了大规模训练,证明了”结构性优化降低训练成本”的可行性。
开源已经从”营销手段”升级为”生态策略”——谁能吸引最多的开发者,谁就能在下一代模型迭代中获得最多的反馈和数据。
变化二:算力缺口依然真实
尽管 DeepSeek 证明了在国产卡上训练大模型的可能性,但行业共识是:
“DS 结构性优化降低了训练成本,在国产卡上训出了大模型,这重要性是毋庸置疑的。但不代表未来算力缺口能迅速补上。”
算力仍然是制约中国 AI 公司的核心瓶颈。各家的应对策略:
| 公司 | 算力策略 |
|---|---|
| DeepSeek | MoE 架构 + 稀疏注意力,降低训练计算量 |
| Qwen | 小参数激活模型(3B/5B/8B),提高推理性价比 |
| 百度 | MoE 瘦身,参数量压缩至上一代的 1/3 |
| 小米 | 云端+端端协同,部分推理任务下放到手机芯片 |
变化三:人才流动加速
Qwen 核心技术负责人离职引发的人才地震余波未平,其他公司也在经历类似的人才争夺:
- 大模型研究员从头部公司向创业公司流动
- 开源社区的活跃贡献者成为各公司争抢对象
- 海外华人 AI 人才回流加速
国际对比
| 维度 | 中国 | 美国 |
|---|---|---|
| 主力公司数量 | 9+ | 5(OpenAI, Anthropic, Google, Meta, xAI) |
| 开源比例 | 高(7/9 主力开源) | 中(Meta 开源为主) |
| 模型迭代速度 | 2-3 月/代 | 1-2 月/代 |
| 算力自主度 | 中(国产卡逐步替代) | 高(NVIDIA + 自研芯片) |
| 商业化成熟度 | 中 | 高 |
格局判断
谁是下一个 DeepSeek?
DeepSeek 在 2025 年初的爆发式增长改变了行业规则。现在的问题是:谁能在 2026 年复制这种突破?
候选者:
- 小米 MiMo:硬件+AI 协同,MIT 开源策略激进
- MiniMax M2.7:自进化架构,差异化明显
- 商汤 SenseNova U1:多模态统一架构,技术路线独特
开源生态的隐忧
虽然开源是当前主旋律,但存在两个风险:
- 同质化竞争:多家公司的开源模型在基准测试上分数接近,差异化不够明显
- 商业可持续性:开源需要持续投入,小公司能否维持开源节奏存疑
行动建议
对于开发者:
- 当前最佳开源选择:Qwen 3.6 系列(生态最成熟)、MiMo-V2.5(最友好许可证)
- Agent 开发:DeepSeek V4 + 国产卡是性价比最高的本地部署方案
对于企业用户:
- API 选型:Qwen3.6-Plus(代码智能体跑分优秀)、Kimi K2.6(长文本场景)
- 本地部署:MiMo-V2.5(MIT 许可证无商业限制)、Qwen3.6-27B(开源社区支持最强)
对于投资者:
- 关注拥有算力自主权的公司(DeepSeek、百度)
- 关注开源生态最活跃的公司(Qwen、小米)