C
ChaoBro

17 дней, 4 модели: гонка вооружений китайского ИИ с открытым кодом и перекройка ландшафта производительности

17 дней, 4 модели: гонка вооружений китайского ИИ с открытым кодом и перекройка ландшафта производительности

Сводка

С конца апреля по начало мая 2026 года китайская ИИ-индустрия выпустила четыре флагманские модели с открытым кодом/открытыми весами всего за 17 дней:

  • GLM-5.1 (Zhipu AI): 754B MoE, лицензия MIT
  • Kimi K2.6 (Moonshot AI): 1T MoE, открытые веса
  • DeepSeek V4 (DeepSeek): MoE триллионного масштаба, открытый код
  • MiMo V2.5 Pro (Xiaomi): мультимодальная модель с открытым кодом

Тестирование сообществом дало краткий, но мощный вывод: Kimi K2.6 — самая быстрая, GLM-5.1 — самая «навороченная», DeepSeek V4 — самая всеобъемлющая, а Xiaomi MiMo — самая медленная.

Но за этой простой оценкой скрывается глубокая трансформация китайского ИИ с открытым кодом — от «нарратива догоняющего» к «дифференцированной конкуренции».

Профили способностей четырёх моделей

GLM-5.1: самый универсальный участник

Ключевое слово GLM-5.1 — функциональная полнота. Архитектура MoE на 754B даёт ему способности без слабых измерений:

  • Кодирование: занял первое место среди отечественных моделей на кодовой арене, превзойдя как Kimi K2.6, так и DeepSeek V4 Pro
  • Вызов инструментов агента: оптимизирован специально для длительного автономного выполнения и сложных инженерных задач
  • Обучение на Huawei Ascend: полностью обучен на чипах не-NVIDIA, нулевая зависимость от NVIDIA

Суть «самой навороченной» такова: GLM-5.1 ближе всего к закрытым флагманским моделям по широте функциональности. Это не чемпион в одной категории, но это ближайший к «универсальному» вариант среди моделей с открытым кодом.

Kimi K2.6: король скорости

Убойное преимущество Kimi K2.6 — скорость вывода. В его MoE-архитектуре на 1T параметров каждый токен активирует лишь около 32 миллиардов параметров, что означает:

  • Бесплатное использование: доступен для бесплатного вывода на платформах вроде Fireworks AI
  • Сильный как в кодировании, так и в математике: результат LiveCodeBench v6 — 53,7%, выше Claude Sonnet 4
  • Контекстное окно 256K: поддерживает ввод изображений и видео

Консенсус сообщества ясен: если нужна быстрая итерация и недорогое прототипирование, Kimi K2.6 — на данный момент лучший выбор. Его «скорость» — это не только скорость вывода, это скорость от идеи до кода.

DeepSeek V4: всеобъемлющая, но «на последнем месте»?

DeepSeek V4 заняла четвёртое место среди отечественных моделей в кодовом рейтинге Arena, что вызвало некоторые дискуссии. Но «последнее место» нужно понимать правильно:

  • База сравнения — отечественные флагманы: четвёртое место всё ещё мирового класса
  • SWE-bench 80,6%: всего на 0,2 процентных пункта позади Claude Opus 4.6 (80,8%)
  • Преимущество в стоимости: цены API значительно ниже, чем у закрытых моделей сопоставимой производительности

«Всеобъемлющность» DeepSeek V4 проявляется в том, что она сохраняет первоклассные стандарты во всех измерениях — кодирование, рассуждение, математика, мультимодальность — без явных слабостей. Но на этом уровне конкуренции «отсутствие слабостей» не означает «наличие выдающихся сильных сторон».

MiMo V2.5 Pro: медленная, но с сюрпризами

Xiaomi MiMo V2.5 Pro — самая медленная среди четырёх по скорости вывода, но у неё уникальное позиционирование: работает на потребительских GPU.

  • Нативная мультимодальность: спроектирована с нуля как мультимодальная модель, а не собрана постфактум
  • Интеграция с экосистемой Xiaomi: глубокая интеграция с телефонами, автомобилями и IoT-устройствами Xiaomi
  • Лидер оценки GDPVal: выдающаяся производительность в специфических измерениях оценки

«Медленность» может не быть проблемой для Xiaomi — бизнес-модель компании означает, что она приоритизирует опыт конечного пользователя над экстремальной скоростью вывода.

Перекройка ландшафта: от «кто лучше» к «кто подходит»

Одновременное существование этих четырёх моделей знаменует важный сдвиг парадигмы:

Раньше: целью моделей с открытым кодом было «догнать GPT/Claude», оценка базировалась на единственном рейтинге производительности.

Сейчас: все четыре отечественные модели с открытым кодом достигли или приблизились к уровню закрытых флагманов на Arena, и стандарт оценки сместился к соответствию сценарию:

  • Нужна самая быстрая итерация → Kimi K2.6
  • Нужны самые всеобъемлющие способности → GLM-5.1
  • Нужно самое дешёвое продакшн-развёртывание → DeepSeek V4
  • Нужна интеграция с конечными устройствами → MiMo V2.5 Pro

Это не история «кто кого заменяет» — это формирование экосистемы «разделения труда».

Интерпретация сигналов

Плотность выпуска 4 флагманских моделей за 17 дней сама по себе является сигналом. Это не совпадение — это отражает:

  • Схождение технологий: зрелость ключевых технологий, таких как архитектура MoE, оптимизация GRPO и Thinking Tokens, значительно сократила циклы НИОКР у всех вендоров
  • Ускорение конкуренции: когда одна компания выпускает новую модель, другие должны ответить в течение недель, иначе рынок воспримет это как «отставание»
  • Коллапс стоимости: непрерывное снижение затрат на обучение и вывод стремительно снижает барьер для выпуска флагманских моделей

Тем временем факт обучения GLM-5.1 на Huawei Ascend дополнительно разрушает нарратив о том, что «только чипы NVIDIA могут обучать передовые модели». Диверсификация вычислительной цепочки поставок переходит от теории к практике.

Рекомендации к действию

  • Разработчики фреймворков агентов: рекомендуется стратегия «маршрутизации по нескольким моделям» — используйте Kimi K2.6 как модель по умолчанию для быстрых ответов, GLM-5.1 как резерв для сложных задач, DeepSeek V4 как вариант оптимизации стоимости для пакетной обработки.
  • Корпоративный выбор технологий: не смотрите только на единственные баллы в рейтингах. Выбирайте модели на основе вашего реального сценария (чувствительность к задержке, требования к конкурентности, требования к конфиденциальности данных).
  • Индивидуальные разработчики: бесплатный сервис вывода Kimi K2.6 — на данный момент способ с самым низким барьером для знакомства с флагманской моделью. Начните с него.

Перекрёстная верификация

Эта оценка подтверждается несколькими независимыми сигналами: тестирование сообщества (сравнительный пост с 497 лайками и 185 закладками), изменения в рейтингах Arena Leaderboard, согласованная производительность на SWE-bench и LiveCodeBench. Тем временем хорошие продажи Coding Plan от Zhipu и интенсивный сбор средств Kimi (более $3,9 млрд менее чем за полгода) corroborируют рыночную конкурентоспособность этих моделей с коммерческой точки зрения.

Когда четыре отечественные модели с открытым кодом одновременно достигают передового уровня, характер конкуренции сместился от «сможем ли мы догнать» к «как нам дифференцироваться». Это признак зрелости ИИ-индустрии Китая.