阿里巴巴通义实验室于 2026 年 4 月下旬正式发布 Qwen3.6 系列模型,涵盖开源的 2.7B 和 27B 版本,以及万亿参数的 Max Preview 闭源版本。这一轮更新在开源社区引发广泛关注——27B 模型的开源不仅性能跃升明显,Apache 2.0 许可证更使其成为商用友好度最高的前沿模型之一。
模型矩阵
Qwen3.6 系列按规模和部署方式分为三个主要版本:
| 版本 | 参数量 | 架构 | 许可证 | 状态 |
|---|---|---|---|---|
| Qwen3.6-2.7B | 2.7B | 稠密 | Apache 2.0 | ✅ 已开源 |
| Qwen3.6-27B | 27B | 稠密 | Apache 2.0 | ✅ 已开源 |
| Qwen3.6 Max Preview | 1T | 稀疏 MoE | API | 🔒 闭源 |
核心特性
1. 性能跃升:小模型硬刚大模型
Qwen3.6-27B 的表现尤为突出。作为一个 27B 稠密模型,它在多个基准测试中击败了参数量大约为其 15 倍的模型:
- 编码任务:击败 Qwen3.5-397B(~400B MoE 模型)
- 工具调用:针对 agentic coding 和 tool use 进行了专项优化
- 多模态:支持原生多模态输入
与上一代 Qwen3.5-27B 相比,这一版本实现了显著的跨越。
2. 思考/非思考双模式
Qwen3.6 系列延续了思考模式的设计思路,支持:
- 思考模式(Thinking):适用于复杂推理、数学推导、代码调试等需要多步分析的场景
- 非思考模式(Non-thinking):适用于日常对话、内容创作等需要快速响应的场景
用户可根据任务需求灵活切换,平衡性能与响应速度。
3. Apache 2.0 许可证:商用友好
Qwen3.6-2.7B 和 Qwen3.6-27B 均采用 Apache 2.0 许可证发布。这意味着:
- 允许商业使用
- 允许修改和再分发
- 无需公开修改后的源代码
- 专利授权明确
对于企业和商业项目而言,这是最具开放性的开源许可证之一。
基准评测表现
Vals Index 排名
在 Vals Index 开源模型榜单中,Qwen3.6-27B 位列 第 8/18 名。值得注意的是,其性能表现与同系列的 Qwen3.6 Plus 接近,尽管参数量可能远小于 Plus 版本。
BridgeBench BS Benchmark
BridgeBench 的”BS Benchmark”(诚实度评测)中,Qwen3.6 Max Preview 以 94.5 分位列 第 2 名,仅次于 Claude Opus 4.6(95.0 分),超越 Claude Sonnet 4.6(91.5 分)和 GPT-5.4(91.5 分)。这表明该模型在拒绝生成不实信息和减少幻觉方面表现出色。
部署与生态
Ollama 原生支持
Qwen3.6-27B 已在 Ollama 上线,一行命令即可运行:
ollama run qwen3.6:27b
还支持与 OpenClaw、Claude Code 等 Agent 工具的快速集成:
ollama launch openclaw --model qwen3.6:27b
ollama launch claude --model qwen3.6:27b
GGUF 量化版本
社区已发布 Qwen3.6 的 GGUF 量化版本(由 bartowski 和 lm-studio 等贡献者提供),支持在消费级硬件上运行。评测显示,Q2_K_XL 及以下量化级别因生成速度过慢不可用,建议至少使用 Q3 或更高级别的量化。
OpenRouter 接入
Qwen3.6 Max Preview 已上线 OpenRouter 平台,定价为 $1.30/$7.80 per million tokens(输入/输出),上下文窗口为 262K。作为阿里巴巴史上最大规模的模型,其定价在万亿参数模型中具有竞争力。
适用场景
Qwen3.6 系列特别适合以下场景:
- Agent 开发:优化的工具调用和编码能力
- 企业部署:Apache 2.0 许可证降低合规风险
- 边缘部署:27B 稠密模型适合中等规模硬件部署
- 轻量级应用:2.7B 版本适合移动端和嵌入式场景
与竞品对比
| 特性 | Qwen3.6-27B | Llama 3.3 70B | Mistral 24B |
|---|---|---|---|
| 参数量 | 27B | 70B | 24B |
| 架构 | 稠密 | 稠密 | 稠密 |
| 许可证 | Apache 2.0 | Llama 3.3 | Apache 2.0 |
| 编码 | 强 | 强 | 中 |
| 工具调用 | 强 | 中 | 中 |
| 多模态 | ✅ 原生 | ❌ | ❌ |
总结
Qwen3.6 系列代表了开源模型向”小而精”方向的重要转变。27B 稠密模型以远低于大模型的参数规模,在编码和工具调用方面达到 400B MoE 级别的性能,同时保持 Apache 2.0 的开放许可。
对于正在寻找商用友好、性能出众、部署灵活的开源模型的团队,Qwen3.6 系列值得优先评估。
随着 GGUF 量化版本的普及和生态工具的快速接入,这一系列有望成为 2026 年最活跃的开源模型之一。