
Китайская нейросеть Kling представила новый инструмент — «AI Avatar». Пользователь может загрузить изображение и аудиофайл, а затем указать эмоции и выражения в подсказке. Система синхронизирует речь с мимикой и «оживляет» аватар.
На начальном этапе доступ к обновлению получит ограниченное количество пользователей. Один из способов оставить комментарий и поделиться анонсом в социальных сетях. Postium собрал больше информации.
Читайте также: 5 нейросетей для создания ИИ-аватаров
Kling «AI Avatar» — возможности и инструкции по использованию
Эта функция позволит авторам и брендам создавать видеоматериалы без снятия: одного ИИ-персонажа можно применять для обучающих видео, подкастов, маркетинговых роликов или историй. Это, по сути, продолжение стратегии Kling по упрощению видеопродакшена: ранее компания демонстрировала генерацию видео на основе текста и комбинирование нескольких референсов, а теперь добавила управляемые эмоции и голос.
Инструкция по использованию «ИИ-аватаров»:
- Загрузите изображение персонажа.
- Прикрепите аудиофайл — свою запись или синтезированный голос.
- В текстовой подсказке укажите эмоции, выражения и поведение.
- В итоге получите видео, где ИИ-аватар говорит и реагирует по заданному сценарию.
Сценарии применения: цифровые ведущие для курсов, чат-боты с «лицом», UGC-реклама, брендированные ролики.
Весной компания обновила Kling до версии 2.1 и запустила генератор изображений KOLORS, продолжая развивать направление ИИ‑видео. Основное внимание уделяется скорости и управляемости: вместо съемок с актерами и монтажа достаточно фотографии и текста. «AI Avatar» расширяет эту стратегию, акцентируя внимание на персонализации и эмоциях.
Пока нет официальной информации о регионах запуска и тарифах. Обновление будет распространяться постепенно, следить за новостями можно в социальных сетях Kling.
Ранее ByteDance анонсировала обновленный генератор изображений — Seedream 4.0.


