结论
小米开源 MiMo-V2.5 和 MiMo-V2.5-Pro 两款大语言模型,vLLM 在首日即宣布支持。其中 Pro 版本明确聚焦两个方向:长周期工具使用和前沿编程,直接瞄准了当前 Agent 场景的核心痛点。
这不是小米第一次做模型,但 MiMo-V2.5-Pro 的发布策略——明确区分通用版和 Agent 专用版——在国产开源模型中并不多见。
版本对比
| 维度 | MiMo-V2.5(标准版) | MiMo-V2.5-Pro(专业版) |
|---|---|---|
| 定位 | 通用大语言模型 | Agent/工具使用专用 |
| 核心优化 | 综合语言能力 | 长周期任务执行、工具链编排 |
| 编程能力 | 标准编程支持 | 前沿编程能力(frontier coding) |
| 工具调用 | 基础 | 深度优化,支持复杂多步工具链 |
| 适用场景 | 对话、问答、文本生成 | Agent 编排、自动化工作流、代码生成 |
| vLLM 支持 | ✅ Day-0 | ✅ Day-0 |
为什么值得关注
1. 长周期任务的开源空白
当前开源社区在短任务(单次问答、简单代码生成)上已经做得很好,但长周期多步任务仍然是闭源模型的领地。Claude 的 computer use、OpenAI 的 deep research,本质上都是长周期工具使用场景。MiMo-V2.5-Pro 明确把这个能力作为核心卖点,填补了开源侧的空白。
2. vLLM 首日支持的速度
vLLM 团队在模型发布当天即完成适配,说明:
- 模型架构与主流推理框架兼容性好
- 社区对该模型的重视程度高
- 部署门槛低,拿到权重就能跑
3. 国产模型的差异化竞争
在 Qwen 主打全面、DeepSeek 主打性价比的格局下,小米 MiMo 选择了垂直场景深耕——Agent/工具使用。这种差异化策略如果走通,可以为国产模型竞争提供新思路。
技术亮点(基于已知信息)
- 工具使用优化:针对多步工具调用的上下文管理做了特殊设计,避免长链条中的信息丢失
- 代码能力强化:在复杂代码生成和调试场景下,Pro 版相比标准版有显著提升
- MoE 架构:延续了 MiMo 系列的混合专家设计,在保持推理效率的同时扩大模型容量
- 开源友好:权重可直接下载,无需申请审批
与同类模型对比
| 模型 | Agent 能力 | 开源 | 长周期任务 | 部署难度 |
|---|---|---|---|---|
| MiMo-V2.5-Pro | 强 | ✅ | 核心卖点 | 低(vLLM) |
| Qwen3.5 | 中强 | ✅ | 通用支持 | 低 |
| DeepSeek-V4 | 中 | 部分 | 需自行优化 | 中 |
| Claude Sonnet | 强 | ❌ | 原生支持 | N/A(API) |
| GPT-4o | 强 | ❌ | 原生支持 | N/A(API) |
MiMo-V2.5-Pro 的独特价值在于:它是目前少数明确为 Agent 场景设计的开源模型,而非通用模型”顺便”支持 Agent。
落地场景
- 自动化工作流:配合 Dify、n8n 等工具平台,构建多步自动化流程
- 代码 Agent:在 OpenCode、Aider 等工具中作为后端模型,提升代码生成质量
- RAG + Agent:结合检索增强,构建能执行复杂查询和数据处理任务的智能体
- 多 Agent 编排:在 Hermes Agent、CrewAI 等框架中作为子 Agent 的执行引擎
行动建议
- Agent 开发者:如果当前使用的开源模型在长周期任务上表现不佳,MiMo-V2.5-Pro 值得测试
- 模型评测者:对比 MiMo-V2.5-Pro 与 Qwen3.5 在 SWE-bench、ToolBench 等 Agent benchmark 上的表现
- 企业用户:小米的开源许可相对友好,适合内部部署
上手路径
# 通过 vLLM 部署
pip install vllm
vllm serve XiaomiMiMo/MiMo-V2.5-Pro --tensor-parallel-size 2
# 或在 OpenCode 中使用
# 在配置文件中指定模型路径即可
权重已发布在 Hugging Face,搜索 XiaomiMiMo 即可找到。
数据来源
- vLLM 官方推文:Day-0 support announcement
- Xiaomi MiMo GitHub: github.com/XiaomiMiMo/MiMo
- 社区开发者在 OpenCode 中的测试反馈