
Нейросетевая система Kling AI представила новую функцию «Elements», которая облегчает процесс создания видео и позволяет объединять до четырех изображений в одну анимацию.
Эта функция уже доступна некоторым пользователям в тестовом режиме, но когда планируется полный запуск, пока не сообщается. Далее рассмотрим, как работает обновление и как его можно использовать.
Читайте также: 10 курсов по работе с нейросетями
Что такое «Elements» в Kling 1.6?
«Elements» предоставляет возможность пользователям загружать изображения с персонажами, окружением или объектами, чтобы нейросеть автоматически включала их в готовое видео. Это значительно сокращает необходимость в длительных текстовых описаниях и многократных попытках достичь желаемого результата.
Теперь, вместо того чтобы тратить часы на создание детализированных промптов, достаточно выбрать изображения, которые точно передают вашу идею, и доверить нейросети остальное. Например, можно загрузить фото героя, предмета и фона — система самостоятельно создаст связную видеосцену.
Почему это важно? Проблема создания качественных и последовательных видео всегда была более сложной, чем работа с изображениями. Kling предлагает решение, которое экономит время, ресурсы и нервы.
Эта технология особенно ценна для маркетплейсов, брендов и блогеров, которым необходимо быстро создавать динамичные и качественные видеоматериалы для рекламы или социальных сетей.
Многие пользователи уже сравнили «Elements» с функцией Ingridients от Pika Labs. Главное отличие Kling — улучшенная согласованность объектов и больше возможностей для настройки. Однако на данный момент функция все еще находится в стадии тестирования, и результаты первых пользователей будут определять её дальнейшее развитие.
В настоящее время «Elements» доступна только для ограниченного числа пользователей в бета-тестировании. Kling использует этот период для сбора отзывов и улучшения технологии перед масштабным запуском.
Ранее модель Kling AI 1.6 научилась создавать видео со звуковым сопровождением по запросу.