Сводка
С конца апреля по начало мая 2026 года китайская ИИ-индустрия выпустила четыре флагманские модели с открытым кодом/открытыми весами всего за 17 дней:
- GLM-5.1 (Zhipu AI): 754B MoE, лицензия MIT
- Kimi K2.6 (Moonshot AI): 1T MoE, открытые веса
- DeepSeek V4 (DeepSeek): MoE триллионного масштаба, открытый код
- MiMo V2.5 Pro (Xiaomi): мультимодальная модель с открытым кодом
Тестирование сообществом дало краткий, но мощный вывод: Kimi K2.6 — самая быстрая, GLM-5.1 — самая «навороченная», DeepSeek V4 — самая всеобъемлющая, а Xiaomi MiMo — самая медленная.
Но за этой простой оценкой скрывается глубокая трансформация китайского ИИ с открытым кодом — от «нарратива догоняющего» к «дифференцированной конкуренции».
Профили способностей четырёх моделей
GLM-5.1: самый универсальный участник
Ключевое слово GLM-5.1 — функциональная полнота. Архитектура MoE на 754B даёт ему способности без слабых измерений:
- Кодирование: занял первое место среди отечественных моделей на кодовой арене, превзойдя как Kimi K2.6, так и DeepSeek V4 Pro
- Вызов инструментов агента: оптимизирован специально для длительного автономного выполнения и сложных инженерных задач
- Обучение на Huawei Ascend: полностью обучен на чипах не-NVIDIA, нулевая зависимость от NVIDIA
Суть «самой навороченной» такова: GLM-5.1 ближе всего к закрытым флагманским моделям по широте функциональности. Это не чемпион в одной категории, но это ближайший к «универсальному» вариант среди моделей с открытым кодом.
Kimi K2.6: король скорости
Убойное преимущество Kimi K2.6 — скорость вывода. В его MoE-архитектуре на 1T параметров каждый токен активирует лишь около 32 миллиардов параметров, что означает:
- Бесплатное использование: доступен для бесплатного вывода на платформах вроде Fireworks AI
- Сильный как в кодировании, так и в математике: результат LiveCodeBench v6 — 53,7%, выше Claude Sonnet 4
- Контекстное окно 256K: поддерживает ввод изображений и видео
Консенсус сообщества ясен: если нужна быстрая итерация и недорогое прототипирование, Kimi K2.6 — на данный момент лучший выбор. Его «скорость» — это не только скорость вывода, это скорость от идеи до кода.
DeepSeek V4: всеобъемлющая, но «на последнем месте»?
DeepSeek V4 заняла четвёртое место среди отечественных моделей в кодовом рейтинге Arena, что вызвало некоторые дискуссии. Но «последнее место» нужно понимать правильно:
- База сравнения — отечественные флагманы: четвёртое место всё ещё мирового класса
- SWE-bench 80,6%: всего на 0,2 процентных пункта позади Claude Opus 4.6 (80,8%)
- Преимущество в стоимости: цены API значительно ниже, чем у закрытых моделей сопоставимой производительности
«Всеобъемлющность» DeepSeek V4 проявляется в том, что она сохраняет первоклассные стандарты во всех измерениях — кодирование, рассуждение, математика, мультимодальность — без явных слабостей. Но на этом уровне конкуренции «отсутствие слабостей» не означает «наличие выдающихся сильных сторон».
MiMo V2.5 Pro: медленная, но с сюрпризами
Xiaomi MiMo V2.5 Pro — самая медленная среди четырёх по скорости вывода, но у неё уникальное позиционирование: работает на потребительских GPU.
- Нативная мультимодальность: спроектирована с нуля как мультимодальная модель, а не собрана постфактум
- Интеграция с экосистемой Xiaomi: глубокая интеграция с телефонами, автомобилями и IoT-устройствами Xiaomi
- Лидер оценки GDPVal: выдающаяся производительность в специфических измерениях оценки
«Медленность» может не быть проблемой для Xiaomi — бизнес-модель компании означает, что она приоритизирует опыт конечного пользователя над экстремальной скоростью вывода.
Перекройка ландшафта: от «кто лучше» к «кто подходит»
Одновременное существование этих четырёх моделей знаменует важный сдвиг парадигмы:
Раньше: целью моделей с открытым кодом было «догнать GPT/Claude», оценка базировалась на единственном рейтинге производительности.
Сейчас: все четыре отечественные модели с открытым кодом достигли или приблизились к уровню закрытых флагманов на Arena, и стандарт оценки сместился к соответствию сценарию:
- Нужна самая быстрая итерация → Kimi K2.6
- Нужны самые всеобъемлющие способности → GLM-5.1
- Нужно самое дешёвое продакшн-развёртывание → DeepSeek V4
- Нужна интеграция с конечными устройствами → MiMo V2.5 Pro
Это не история «кто кого заменяет» — это формирование экосистемы «разделения труда».
Интерпретация сигналов
Плотность выпуска 4 флагманских моделей за 17 дней сама по себе является сигналом. Это не совпадение — это отражает:
- Схождение технологий: зрелость ключевых технологий, таких как архитектура MoE, оптимизация GRPO и Thinking Tokens, значительно сократила циклы НИОКР у всех вендоров
- Ускорение конкуренции: когда одна компания выпускает новую модель, другие должны ответить в течение недель, иначе рынок воспримет это как «отставание»
- Коллапс стоимости: непрерывное снижение затрат на обучение и вывод стремительно снижает барьер для выпуска флагманских моделей
Тем временем факт обучения GLM-5.1 на Huawei Ascend дополнительно разрушает нарратив о том, что «только чипы NVIDIA могут обучать передовые модели». Диверсификация вычислительной цепочки поставок переходит от теории к практике.
Рекомендации к действию
- Разработчики фреймворков агентов: рекомендуется стратегия «маршрутизации по нескольким моделям» — используйте Kimi K2.6 как модель по умолчанию для быстрых ответов, GLM-5.1 как резерв для сложных задач, DeepSeek V4 как вариант оптимизации стоимости для пакетной обработки.
- Корпоративный выбор технологий: не смотрите только на единственные баллы в рейтингах. Выбирайте модели на основе вашего реального сценария (чувствительность к задержке, требования к конкурентности, требования к конфиденциальности данных).
- Индивидуальные разработчики: бесплатный сервис вывода Kimi K2.6 — на данный момент способ с самым низким барьером для знакомства с флагманской моделью. Начните с него.
Перекрёстная верификация
Эта оценка подтверждается несколькими независимыми сигналами: тестирование сообщества (сравнительный пост с 497 лайками и 185 закладками), изменения в рейтингах Arena Leaderboard, согласованная производительность на SWE-bench и LiveCodeBench. Тем временем хорошие продажи Coding Plan от Zhipu и интенсивный сбор средств Kimi (более $3,9 млрд менее чем за полгода) corroborируют рыночную конкурентоспособность этих моделей с коммерческой точки зрения.
Когда четыре отечественные модели с открытым кодом одновременно достигают передового уровня, характер конкуренции сместился от «сможем ли мы догнать» к «как нам дифференцироваться». Это признак зрелости ИИ-индустрии Китая.