
Компания ByteDance презентовала Seedance 2.0 — обновлённую модель для генерации видео. Это уже не просто text-to-video: нейросеть способна создавать ролики из нескольких сцен, осуществлять логичные склейки, добавлять звуковое сопровождение и сохранять визуальную последовательность от кадра к кадру.
Модель уже доступна на китайской платформе Jimeng AI (Dreamina) и в видеоредакторе Jianying (аналог CapCut). Доступ открыт для платных подписчиков и некоторых тестировщиков. Глобальный релиз в CapCut ожидается позже. Дополнительная информация представлена в материале Postium.
Читайте также: Промты для генерации видео в Grok
Что нового в Seedance 2.0
Seedance 2.0 — мультимодальная видеомодель с новой архитектурой и оптимизацией RayFlow, которая ускоряет рендеринг примерно на 30%. В отличие от большинства конкурентов, создающих «немое» видео, модель сразу работает с визуальным и звуковым контентом как с единым целым.
Нейросеть обеспечивает нативный липсинк — синхронизацию губ с речью на фонемном уровне — и генерирует фоновый шум, соответствующий физике объектов на экране. Видео и аудио создаются не по отдельности, а как взаимосвязанный результат.
Ещё одно значительное обновление — переход от случайного генерации кадров к управляемой «режиссуре». Seedance 2.0 поддерживает загрузку до 12 референсов: до 9 изображений, 3 видео и 3 аудио.
Пользователь может загрузить фото актёра, пример локации и необходимый голос, получая серию различных сцен с сохранением идентичности персонажа, его одежды и окружения. Максимальное разрешение возросло до нативного 2K.
Как пользоваться
Seedance 2.0 интегрирована в экосистему CapCut и платформу Dreamina. Пользователь описывает сцену текстом, добавляет референсы и при необходимости загружает звуковую дорожку — модель синхронизирует ритм и переходы в соответствии с ней.
Также ожидается, что модель появится на сторонних агрегаторах и через внешние коннекторы (fal.ai, wavespeed).
Почему это важно? ByteDance отказывается от концепции «одного красивого кадра» в пользу генерации полного видео. Возможность объединять сцены, сохранять персонажей и контролировать стиль делает Seedance 2.0 инструментом для рекламных нарезок и клипов — там, где важна цельная картинка, а не набор отдельных кадров.
Это соответствует общему тренду рынка: ИИ-видео движется к мультимодальности и привязке к референсам, когда модели не просто создают видео с нуля, а удерживают стиль, персонажей и логику сцен.
Кроме того, Seedance 2.0 становится прямым конкурентом Kling Video 3.0 и также позволяет собирать сцены по кадрам, как настоящий режиссёр.
Итог: Seedance 2.0 — шаг к генерации завершённых видеосцен, где важны последовательность, звук и предсказуемый результат.


