Skip to main content
Вышла HunyuanVideo 1.5 — новая открытая ИИ-модель для генерации видео

Tencent анонсировала HunyuanVideo 1.5 — новую открытую модель для создания видео, работающую всего на 8,3 миллиарда параметров и запускаемую на стандартной видеокарте. Компания утверждает, что это теперь наиболее мощное open-source решение в своей области — как по качеству, так и по доступности.

Модель уже доступна на Hugging Face: имеются версии для генерации из текста и изображений, варианты 480p/720p, а также отдельные модели для разрешения до 1080p. Она функционирует на потребительских GPU с примерно 14 ГБ видеопамяти. Подробности можно узнать в материале Postium.

Читайте также: 5 нейросетей для бесплатной генерации видео

Функционал HunyuanVideo 1.5 и его работа

HunyuanVideo 1.5 основывается на архитектуре Diffusion Transformer (DiT), которая производит видео в сжатом латентном пространстве. Специальный 3D VAE уменьшает объем данных, а новый механизм внимания SSTA ускоряет вычисления почти в два раза на длинных роликах.

Базовая модель выдает 5–10 секунд видео в 480p или 720p, после чего подключается отдельный модуль супер-разрешения, который повышает качество до 1080p и устраняет артефакты. Для улучшения качества запросов модель может автоматически переписывать промпты с помощью внешней LLM.

Главное — модель стала значительно легче. С 8,3 миллиарда параметров она работает быстрее и требует меньшего объема памяти. Теперь ее можно запускать на обычной видеокарте, а не на серверных GPU.

Еще одним нововведением является работа с промптами для генерации видео. В документации подчеркивается, что длинные, детализированные запросы значительно улучшают качество видео, для чего существует отдельный «Руководство по написанию промптов». Модель лучше справляется, когда ей заранее задают стиль, угол обзора, движения камеры и поведение объектов — тогда сцена получается более стабильной и реалистичной.

Ускорение внимания, встроенное супер-разрешение, набор дистиллированных и sparse-моделей, а также поддержка ComfyUI делают HunyuanVideo 1.5 не просто исследовательским прототипом, а полноценным рабочим инструментом.

Инструкция по использованию HunyuanVideo 1.5

Зайдите на страницу проекта на Hugging Face, скачайте необходимые модели — версии для 480p/720p, режимы T2V/I2V и модули супер-разрешения. Затем установите окружение и зависимости из репозитория — этого будет достаточно, чтобы модель заработала локально.

Как пользоваться HunyuanVideo 1.5

Далее можно запускать генерацию с помощью стандартного скрипта: задайте промпт, продолжительность и разрешение. Если не хочется работать с консолью, уже существуют готовые графические решения — ComfyUI и LightX2V поддерживают HunyuanVideo 1.5 из коробки. Также модель уже доступна на плейграундах типа fal.ai.

Почему это имеет значение? HunyuanVideo 1.5 — значительный шаг для открытых моделей. Она впервые сочетает достойное качество, HD-разрешение и возможность запуска «на домашнем компьютере».

Тем не менее, важно осознавать масштаб: это прорыв для open-source, а не прямая альтернатива Sora, Veo или Wan 2.5. Закрытые модели по-прежнему превосходят в реалистичности движений, физике, длине сцен и стабильности. HunyuanVideo 1.5 решает иную задачу: делает видеогенерацию доступной для разработчиков, студий и энтузиастов без необходимости в дорогом оборудовании и облачных сервисах.

Напоминаю, Tencent развивает линейку Hunyuan уже несколько месяцев: от генерации изображений HunyuanImage 3.0 до видео-моделей. В версии 1.5 компания делает акцент на эффективности, открытости и совместимости с популярными инструментами из сообщества.

Итог: HunyuanVideo 1.5 стала быстрее, легче, доступнее и качественнее. Теперь это не экспериментальная игрушка, а действительно полезный инструмент, который функционирует на обычном оборудовании и выдает качественные HD-видеоролики.

Ранее на платформе Dreamina AI появилась возможность генерации видео до 54 секунд по 10 кадрам.

Нейросети

Close Menu
Новости интернет маркетинга, сайтов, новости нейросетей и технологий