Skip to main content
Kimi K2.5 — что умеет и как работает

Компания Moonshot AI анонсировала Kimi K2.5 — обновлённую версию своей ИИ-модели, специально разработанную для программирования, взаимодействия с инструментами и выполнения агентных сценариев. Эта мультимодальная модель может обрабатывать текст, изображения и видео, используя визуальные данные для решения задач.

K2.5 уже доступна на сайте Kimi и в официальном приложении. Для разработчиков открыт API. Режим Agent Swarm находится в бета-версии и включён не для всех пользователей: доступ зависит от платформы и тарифного плана. Веса модели опубликованы на Hugging Face под лицензией Modified MIT.

Читайте также: ТОП-5 нейросетей для работы

Kimi K2.5 — что умеет и как работает

Kimi K2.5 представляет собой нативную мультимодальную модель с контекстным окном приблизительно 262 тысячи токенов. Она функционирует в двух режимах: быстром (для общения) и «мыслящем». Модель была обучена на разнообразном наборе текстовых и визуальных данных объёмом около 15 трлн токенов.

Вы можете запросить модель написать код, основываясь на текстовом описании интерфейса, скриншоте или даже видеозаписи. Это также помогает в визуальной отладке: для поиска ошибок в пользовательском интерфейсе, несоответствий с макетами и проблем с поведением интерфейса.

Вторая важная функция — Agent Swarm. В этом режиме K2.5 может создавать до 100 подагентов и выполнять задачи параллельно, вызывая инструменты цепочками. Moonshot утверждает, что поддерживается до 1 500 одновременных вызовов инструментов и ускорение сложных задач до 4,5 раз по сравнению с одиночным агентом.

Как пользоваться

В чат-боте на сайте Kimi и в приложении доступны режимы Instant, Thinking, Agent и Agent Swarm. Пользователь выбирает режим и формулирует задачу текстом, изображением или видео.

Kimi K2.5 — что умеет и как работает

Для разработчиков модель доступна через API с совместимостью в стиле OpenAI и Anthropic. Для агентных сценариев Moonshot предлагает собственную обвязку — Kimi Code.

Почему это важно? K2.5 направлена на решение двух ключевых практических задач. Первая — сделать мультимодальность полезной для разработки, когда изображение или видео преобразуются не просто в описание, а в рабочий код или инструмент для отладки. Вторая — упростить агентную оркестрацию, где одна задача требует планирования, параллельной проверки и множества вызовов инструментов.

Согласно данным VentureBeat, ссылающимся на материалы Moonshot, K2.5 продемонстрировала 50,2% на Humanity’s Last Exam и 76,8% на SWE-bench Verified. Эти результаты не являются абсолютной мерой качества, но отражают позиционирование модели — прямую конкуренцию с закрытыми топ-моделями в области кодирования и агентных задач.

Бенчмарки Kimi K2.5

Kimi K2.5 построена на архитектуре MoE: при большом общем количестве параметров активируется только часть модели на каждом токене. В материалах NVIDIA для K2.5 указаны 1 трлн параметров, 32 млрд активируемых и 384 эксперта — ставка на эффективность без потери высокого уровня качества.

Рынок в целом движется в сторону «моделей как движков автоматизации», а не просто чат-ботов. K2.5 соответствует этому тренду как открытая мультимодальная модель, ориентированная на код, инструменты и агентные сценарии.

Итог: Kimi K2.5 — это попытка сделать мультимодальность и агентность практическими для разработки и автоматизации, при этом в формате, который можно использовать как сервис или как открытые веса.

Kimi AI Нейросети

Close Menu
Новости интернет маркетинга, сайтов, новости нейросетей и технологий