Mistral Medium 3.5 发布:128B 参数、256K 上下文,搭配 Workflows 企业编排层正式亮相

Mistral Medium 3.5 发布:128B 参数、256K 上下文,搭配 Workflows 企业编排层正式亮相

发生了什么

Mistral AI 在 4 月 30 日连发两弹:新一代旗舰模型 Medium 3.5 和面向企业的 Workflows 编排层。

Medium 3.5 核心规格

  • 128B 参数(dense 架构,非 MoE)
  • 256K 上下文窗口
  • 可配置推理强度(configurable reasoning effort)
  • 统一指令遵循、推理、编码能力
  • 修改版 MIT 许可证开源

Workflows 编排层

  • 基于 Temporal 构建
  • 用 Python 定义复杂 AI 业务流程
  • 已获 ASML、ABANCA、CMA-CGM 等企业客户验证
  • 填补”有模型但无法在生产环境可靠运行”的鸿沟

为什么重要

Medium 3.5 的定位

Mistral 选择了一条与竞品不同的路。当大多数厂商转向 MoE(混合专家)架构以控制推理成本时,Mistral 坚持 dense 架构。这意味着:

特性Mistral Medium 3.5Qwen 3.6 (MoE)DeepSeek V4 (MoE)
架构Dense 128BMoEMoE
上下文256K256K128K
开源许可修改版 MITApache 2.0开源协议
可配置推理
推理成本较高较低较低

Dense 架构的优势是输出一致性更强、延迟更可预测——这对于需要确定性输出的企业场景(金融合规、法律审查)比”偶尔超神但偶尔掉线”更重要。256K 上下文在 dense 模型中是目前最大的。

Workflows 的企业价值

Mistral 对 enterprise AI 痛点的理解很准确。企业不缺好模型,缺的是:

  1. 可靠性:LLM 调用失败后如何重试、降级、人工介入?
  2. 可观测性:谁触发了什么流程、花了多少钱、产出质量如何?
  3. 合规性:数据流转是否满足审计要求?

Workflows 基于 Temporal(一个成熟的工作流编排引擎)构建,天然具备上述能力。用 Python 定义流程而非 DSL,降低了团队的学习成本。

Le Chat Work Mode 同步升级

Medium 3.5 同时也是 Le Chat 新”Work Mode”的驱动引擎。这个模式将 Le Chat 从对话式助手升级为持久的多步执行 Agent,在一个自定义 harness 中运行复杂任务。对于个人开发者和中小团队,这意味着 Le Chat 开始具备类似 Claude Projects 的长期任务管理能力。

竞争格局

Mistral 正在执行”欧洲版 Anthropic”的战略:

  • 模型能力:Medium 3.5 的 dense 架构策略与 Anthropic Claude 系列一脉相承
  • 企业产品:Workflows 对标 LangGraph/Airflow,但更轻量
  • 开源策略:修改版 MIT 许可保留了商业控制权,同时拥抱社区

在欧洲市场,Mistral 几乎没有同量级的竞争者。在全球市场,它需要面对 Anthropic 的 Claude、Google 的 Gemini 和国内 Qwen 的竞争。Workflows 的差异化定位可能是它撬动企业市场的关键。

行动建议

  • 欧洲企业客户:Mistral 的数据驻留优势 + Workflows 的企业级特性组合值得关注,尤其是 GDPR 敏感场景。
  • 开源社区:Medium 3.5 的 dense 架构值得做 benchmark 对比,特别是与 MoE 模型在一致性场景下的表现。
  • 开发者:Le Chat 的 Work Mode 预览版可以免费试用,评估是否适合作为日常多步任务的执行环境。