
Компания Lightricks, известная своими приложениями Facetune, Videoleap и Motionleap, представила новое поколение своей видеомодели — LTX-2.
Она генерирует видео из текста и изображений в нативных разрешениях 4K, 1440p и 1080p (720p будет добавлено позже) и сразу же рендерит окончательный результат — без апскейла, пост-обработки и стороннего монтажа. Максимальная длина видео — до 10 секунд непрерывной генерации. Postium собрал основные моменты о новой модели Lightricks и показывает, как ею пользоваться бесплатно.
Читайте также: 5 лучших нейросетей для создания видео
Что умеет нейросеть LTX-2 и как функционирует
В LTX-2 улучшена синхронизация речи и движений губ, добавлена возможность включать фоновую музыку и атмосферные звуки прямо во время генерации сцены.
Модель теперь функционирует по принципу «всё сразу»: видео, речь и музыка создаются синхронно, без последующей сборки. Это делает ролики более органичными и исключает проблемы с рассинхронизацией, которые часто возникают в других ИИ-видеогенераторах.
В сервисе представлены три режима работы:
- Fast — быстрое предварительное воспроизведение и тестирование идей;
- Pro — оптимальный баланс качества и скорости, предназначен для продакшна;
- Ultra (в разработке) — обещает 50 fps и полное 4K-видео.
LTX-2 также поддерживает API и SDK — модель может быть интегрирована в продакшн-пайплайн, включая ComfyUI, Replicate и Fal. Это важно для разработчиков и студий, стремящихся внедрить ИИ-видео в свои продукты.
Доступность: LTX-2 уже доступна в LTX Studio, версия Ultra и публичный API ожидаются к концу 2025 года.
Цена и сравнение с конкурентами. LTX предлагает одну из самых доступных подписок на рынке:
- $15 в месяц за базовый тариф;
- $35 в месяц — стандартный план с увеличенным количеством генераций;
- $125 в месяц — профессиональный уровень с приоритетным рендерингом и расширенными лимитами.
Для сравнения, аналогичные сервисы, такие как Pika, Runway и Synthesia, стоят от $30 до $40 в месяц, и генерация 4K-видео доступна только на более дорогих тарифах.
Статья на тему: Как купить подписку на Kling AI в России
Как пользоваться нейросетью LTX-2 бесплатно — пошаговая инструкция
При регистрации пользователи получают 100 кредитов для тестирования модели. Время рендеринга составляет всего несколько минут: в режиме Fast — до 30 секунд, в Pro — немного дольше, но с максимальным качеством и стабильностью.
1. Заходим на сайт и авторизуемся с помощью Google-аккаунта. Выбираем способ генерации. На панели слева в разделе API Playground доступны два варианта:
- Text to Video — создает видео по текстовому описанию.
- Image to Video — превращает загруженное изображение в анимированный ролик.

Для примера рассмотрим текстовый вариант.
2. Вводим промт. В поле Prompt описываем сцену как можно более подробно — кто, где, что делает, настроение, освещение, стиль. В LTX можно применять общие принципы промтов для создания видео.

3. Настраиваем параметры генерации. Под полем промта выбираем необходимые параметры:
- Model — Fast (быстрее, с меньшей детализацией) или Pro (баланс скорости и качества).
- Duration — длительность ролика (до 10 секунд).
- Resolution — качество видео (1080p, 1440p или 4K).
- FPS — частота кадров (обычно 25 или 50).
- Audio — активируем, если хотим, чтобы модель добавила фоновую музыку или речь прямо во время рендеринга.

4. Генерируем видео. Нажимаем Generate video — и система начинает рендеринг. В режиме Fast видео появляется через 10–15 секунд, Pro — немного дольше, но с заметно лучшей синхронизацией и детализацией.
После завершения генерации можно скачать результат, нажав кнопку Download. Я использовал промт:
cozy coffee shop interior, barista pouring espresso into a cup, visible steam, warm morning light, cinematic shot
Результат:
LTX-2 заменяет предыдущую модель LTXV, которая могла генерировать видео до 1080p. Новый релиз выводит платформу на профессиональный уровень, акцентируя внимание на качестве и точной синхронизации.
В Lightricks подчеркивают, что в настоящее время команда работает над увеличением длины роликов и функцией динамических сцен, где камера может перемещаться, изменять фокус и освещение в реальном времени.
Итог: На рынке появился еще один ИИ-генератор видео, который акцентирует внимание на доступности и скорости, сохраняя профессиональное качество. Как мы упоминали ранее — синхронный звук и видео становятся новым стандартом для видеомоделей.
Ранее Suno выпустила бесплатную ИИ-модель «v4.5-all» для генерации музыки и вокала.


