Qwen3.6 开源实测:27B 小模型硬刚 400B MoE,Apache 2.0 友好商用

Qwen3.6 开源实测:27B 小模型硬刚 400B MoE,Apache 2.0 友好商用

阿里巴巴通义实验室于 2026 年 4 月下旬正式发布 Qwen3.6 系列模型,涵盖开源的 2.7B 和 27B 版本,以及万亿参数的 Max Preview 闭源版本。这一轮更新在开源社区引发广泛关注——27B 模型的开源不仅性能跃升明显,Apache 2.0 许可证更使其成为商用友好度最高的前沿模型之一。

模型矩阵

Qwen3.6 系列按规模和部署方式分为三个主要版本:

版本参数量架构许可证状态
Qwen3.6-2.7B2.7B稠密Apache 2.0✅ 已开源
Qwen3.6-27B27B稠密Apache 2.0✅ 已开源
Qwen3.6 Max Preview1T稀疏 MoEAPI🔒 闭源

核心特性

1. 性能跃升:小模型硬刚大模型

Qwen3.6-27B 的表现尤为突出。作为一个 27B 稠密模型,它在多个基准测试中击败了参数量大约为其 15 倍的模型:

  • 编码任务:击败 Qwen3.5-397B(~400B MoE 模型)
  • 工具调用:针对 agentic coding 和 tool use 进行了专项优化
  • 多模态:支持原生多模态输入

与上一代 Qwen3.5-27B 相比,这一版本实现了显著的跨越。

2. 思考/非思考双模式

Qwen3.6 系列延续了思考模式的设计思路,支持:

  • 思考模式(Thinking):适用于复杂推理、数学推导、代码调试等需要多步分析的场景
  • 非思考模式(Non-thinking):适用于日常对话、内容创作等需要快速响应的场景

用户可根据任务需求灵活切换,平衡性能与响应速度。

3. Apache 2.0 许可证:商用友好

Qwen3.6-2.7B 和 Qwen3.6-27B 均采用 Apache 2.0 许可证发布。这意味着:

  • 允许商业使用
  • 允许修改和再分发
  • 无需公开修改后的源代码
  • 专利授权明确

对于企业和商业项目而言,这是最具开放性的开源许可证之一。

基准评测表现

Vals Index 排名

在 Vals Index 开源模型榜单中,Qwen3.6-27B 位列 第 8/18 名。值得注意的是,其性能表现与同系列的 Qwen3.6 Plus 接近,尽管参数量可能远小于 Plus 版本。

BridgeBench BS Benchmark

BridgeBench 的”BS Benchmark”(诚实度评测)中,Qwen3.6 Max Preview 以 94.5 分位列 第 2 名,仅次于 Claude Opus 4.6(95.0 分),超越 Claude Sonnet 4.6(91.5 分)和 GPT-5.4(91.5 分)。这表明该模型在拒绝生成不实信息和减少幻觉方面表现出色。

部署与生态

Ollama 原生支持

Qwen3.6-27B 已在 Ollama 上线,一行命令即可运行:

ollama run qwen3.6:27b

还支持与 OpenClaw、Claude Code 等 Agent 工具的快速集成:

ollama launch openclaw --model qwen3.6:27b
ollama launch claude --model qwen3.6:27b

GGUF 量化版本

社区已发布 Qwen3.6 的 GGUF 量化版本(由 bartowski 和 lm-studio 等贡献者提供),支持在消费级硬件上运行。评测显示,Q2_K_XL 及以下量化级别因生成速度过慢不可用,建议至少使用 Q3 或更高级别的量化。

OpenRouter 接入

Qwen3.6 Max Preview 已上线 OpenRouter 平台,定价为 $1.30/$7.80 per million tokens(输入/输出),上下文窗口为 262K。作为阿里巴巴史上最大规模的模型,其定价在万亿参数模型中具有竞争力。

适用场景

Qwen3.6 系列特别适合以下场景:

  • Agent 开发:优化的工具调用和编码能力
  • 企业部署:Apache 2.0 许可证降低合规风险
  • 边缘部署:27B 稠密模型适合中等规模硬件部署
  • 轻量级应用:2.7B 版本适合移动端和嵌入式场景

与竞品对比

特性Qwen3.6-27BLlama 3.3 70BMistral 24B
参数量27B70B24B
架构稠密稠密稠密
许可证Apache 2.0Llama 3.3Apache 2.0
编码
工具调用
多模态✅ 原生

总结

Qwen3.6 系列代表了开源模型向”小而精”方向的重要转变。27B 稠密模型以远低于大模型的参数规模,在编码和工具调用方面达到 400B MoE 级别的性能,同时保持 Apache 2.0 的开放许可。

对于正在寻找商用友好、性能出众、部署灵活的开源模型的团队,Qwen3.6 系列值得优先评估。

随着 GGUF 量化版本的普及和生态工具的快速接入,这一系列有望成为 2026 年最活跃的开源模型之一。