Kimi K2.6 на платформе Fireworks AI: Moonshot открывает полный цикл обучения SFT/DPO/RL

Kimi K2.6 на платформе Fireworks AI: Moonshot открывает полный цикл обучения SFT/DPO/RL

Ценность open-source моделей — не только в том, «можно ли использовать», но и «можно ли модифицировать». Выход Kimi K2.6 на платформе Fireworks AI выводит кастомизируемость китайских моделей на новый уровень.

Что произошло

Fireworks AI объявила о подключении Kimi K2.6 к workflow Managed и Training API. Разработчики могут напрямую на платформе Fireworks выполнять:

  • SFT (Supervised Fine-Tuning): Тонкая настройка стиля и способностей модели на собственных данных
  • DPO (Direct Preference Optimization): Выравнивание поведения модели через данные предпочтений
  • RL (Reinforcement Learning): Обучение с кастомными функциями потерь

Почему это важно

От «можно использовать» к «можно обучать»

Большинство open-source моделей останавливаются на API вывода. Полная поддержка обучения K2.6 на Fireworks преодолевает это ограничение.

Преимущество контекста 265K для обучения

Контекст обучения большинства моделей ограничен 32K-128K. Контекст 265K у K2.6 даёт уникальные преимущества для обучения длинным документам, многораундовым диалогам и кодовым базам.

Итог

Появление Kimi K2.6 на платформе Fireworks AI означает, что китайские модели достигли равной кастомизируемости с закрытыми моделями США на уровне обучения.

Источники: