Skip to main content
Alibaba представила Qwen3.5-397B-A17B — открытую нейросеть для ИИ-агентов

Команда Qwen анонсировала Qwen3.5-397B-A17B — ведущую визуально-языковую модель с открытыми параметрами. Она представляется как основа для «нативных мультимодальных агентов»: охватывая программирование, сложные логические задачи, работу с интерфейсами и видео.

Доступ к модели уже открыт через веб-версию Qwen Chat и мобильное приложение, а также на Hugging Face и ModelScope. Для облачного использования доступна версия Qwen3.5-Plus через официальный API. Подробности можно найти в материале Postium.

Читайте также: 5 лучших нейросетей для работы

Нейросеть Qwen3.5-397B-A17B — возможности и работа модели

Основой является гибридная архитектура. Инженеры интегрировали Gated Delta Networks с механизмом линейного внимания и разреженную Mixture-of-Experts.

Общий объём модели составляет 397 миллиардов параметров. Однако в процессе генерации активируются лишь 17 миллиардов. Система динамически «включает» необходимых экспертов, оставляя остальных неактивными. Это снижает вычислительную нагрузку по сравнению с плотными моделями аналогичного размера.

Цель архитектуры — поддерживать уровень производительности «тяжёлых» флагманов, одновременно ускоряя процесс инференса.

Модель мультимодальная. Она обрабатывает текст и изображения, поддерживает взаимодействие с графическими интерфейсами, анализирует видео и выполняет агентные сценарии с цепочками действий. Поддерживается 201 язык и диалект.

Контекст — 262 144 токена нативно, с возможностью расширения до 1 010 000 токенов.

Лицензия Apache 2.0 предоставляет возможность использования модели в коммерческих продуктах без ограничений исследовательского формата.

Согласно бенчмаркам, Qwen3.5-397B-A17B особенно успешно справляется с задачами, близкими к реальным агентам. В OmniDocBench v1.5 (документы) она демонстрирует результат 90,8 — выше, чем у GPT-5.2, Claude Opus 4.5 и Gemini 3 Pro. В BrowseComp (агентный веб-поиск) разрыв ещё более заметен: 78,6 у Qwen против 65,8 у GPT-5.2, 67,8 у Claude и 59,2 у Gemini.

Бенчмарки Qwen3.5-397B-A17B

Однако в SWE-bench Verified (агентный кодинг) Qwen уже не занимает первое место — 76,4 против 80,0 у GPT-5.2 и 80,9 у Claude, то есть она находится рядом, но уступает.

Как использовать

Модель можно применять двумя способами — через готовый интерфейс или самостоятельно развернуть.

В Qwen Chat и мобильном приложении достаточно выбрать модель «Qwen 3.5» из списка доступных моделей. Интерфейс поддерживает русский язык и доступен бесплатно.

Как пользоваться Квен 3.5 бесплатно и на русском языке

Открытые веса можно загрузить с Hugging Face или ModelScope и установить самостоятельно. Для облачного сценария доступен официальный API с моделью Qwen3.5-Plus.

Почему это имеет значение? Рынок движется в направлении агентных систем, которые не только генерируют текст, но и способны воспринимать длинные контексты, анализировать изображения, работать с интерфейсами и выполнять последовательности действий.

В таких сценариях критичны скорость и стоимость каждого этапа. Подход MoE в Qwen3.5 — это попытка адаптировать крупную мультимодальную модель для реального использования, а не только для демонстраций.

Напомним, что в сентябре 2025 года Alibaba последовательно обновила свою линейку Qwen. Сначала была анонсирована Qwen3-Omni — мультимодальная модель, которая работает с текстом, изображениями, аудио и видео. Затем была представлена Qwen3-Max — крупнейшая на тот момент модель компании с более чем 1 трлн параметров и контекстом до 262 тысяч токенов.

Итог: Qwen3.5-397B-A17B — это ставка на крупную мультимодальную модель с архитектурой MoE, где масштаб сочетается с более низкой вычислительной нагрузкой и открытой лицензией.

Alibaba Qwen Нейросети

Close Menu
Новости интернет маркетинга, сайтов, новости нейросетей и технологий