IBM 于 2026 年 4 月 29 日发布 Granite 4.1 开源模型家族,与 Mistral Medium 3.5 同日发布,形成了一场有趣的”同台竞技”。Granite 4.1 采用 Apache 2.0 许可,包含稠密文本模型以及专用的视觉和语音变体。
核心规格
| 指标 | 数值 |
|---|---|
| 架构 | 稠密文本 |
| 上下文窗口 | 512K tokens |
| 变体 | 文本、视觉、语音 |
| 许可 | Apache 2.0 |
| 开源 | 是 |
Granite 4.1 最突出的设计是 512K 上下文窗口,在同等规模模型中属于最大一档。这意味着它可以一次性处理极长的文档、代码库或多轮对话历史。
Apache 2.0 许可的战略意义
在社区讨论中,Granite 4.1 的 Apache 2.0 许可被认为是其最具竞争力的特性之一。社区分析指出,这使得受监管行业(医疗、金融、政府)可以将模型完全在本地运行,无需担心许可限制。这是 OpenAI 和 Anthropic 目前无法提供的差异化优势。
与此对比,Mistral Medium 3.5 采用的研究许可对商用场景有更多约束。如果你的团队需要完全自由的商用许可,Granite 4.1 是更稳妥的选择。
与同日发布模型的对比
Granite 4.1-30B 与 Qwen3.6-27B 在参数量上相近。社区实测数据显示,在 Artificial Analysis 指数上 Qwen3.6-27B 得分约 37,而 Granite 4.1-30B 得分约 15。这表明在综合能力上 Qwen3.6 领先,但 Granite 4.1 的 512K 上下文和 Apache 2.0 许可构成了不同的价值主张。
Granite 4.1 更适合以下场景:
- 需要超长上下文处理的文档分析任务
- 受监管行业的本地部署需求
- 对 Apache 2.0 许可有强制要求的企业
快速上手
Granite 4.1 已在 Hugging Face 上线,可通过以下方式使用:
# 安装 transformers
pip install transformers
# 加载模型
from transformers import AutoModelForCausalLM, AutoTokenizer
model = AutoModelForCausalLM.from_pretrained("ibm-granite/granite-4.1-h-tiny")
tokenizer = AutoTokenizer.from_pretrained("ibm-granite/granite-4.1-h-tiny")
具体模型权重名称需参考 IBM Granite 官方仓库。
主要来源
- IBM Granite 4.1 GitHub
- Hugging Face Granite 4.1
- 社区讨论(X/Twitter)