
Компания Kuaishou сообщила о запуске нейросети Kling AI 2.0 — значительного обновления, которое существенно расширяет функционал генерации видео (KLING 2.0 Master) и изображений (KOLORS 2.0). Теперь платформа позволяет не только преобразовывать текст в видео, но и предоставляет полный контроль над каждым элементом сцены — от динамики движения до замены объектов в кадре.
Основная задача обновления — сократить путь от концепции до окончательного визуального результата. В версии 2.0 это стало возможным благодаря новым моделям и мультиформатным инструментам редактирования.
Статья по теме: 10 лучших курсов по работе с нейросетями
Обновление базовой модели ИИ KLING 2.0 Master
KLING 2.0 Master — это ведущая модель генерации видео, которая прошла значительное обновление:
Точное выполнение запросов: система лучше распознаёт сложные описания с последовательностью действий. Теперь можно задать сцену, где, например, персонаж бежит по улице, перепрыгивает через машину и достаёт телефон — и всё это будет показано строго по сценарному плану.
Промпт: [Сначала человек весело смеётся, затем внезапно становится сердитым, стучит по столу и встаёт].
Kling 1.6:
Kling 2.0:
Динамика в кадре: движения персонажей стали более естественными, с плавной скоростью и реалистичной пластикой. Даже при выполнении сложных действий сохраняется детализация и визуальная целостность.
Промпт: [Скейтбординг, с непрерывным движением вокруг молодого скейтбордиста].
Kling 1.6:
Kling 2.0:
Кинематографическая эстетика: выразительные мимики, насыщенные цвета и стилистическая целостность сцены — всё это теперь доступно даже при генерации «из текста».
Промпт: [Камера следует за пчелой, которая быстро маневрирует среди цветов, в итоге фокусируясь на свежем цветке, покрытом каплями росы].
Kling 1.6:
Kling 2.0:
Мультимодальные функции
Одним из ключевых нововведений стал редактор Multi-Elements Editor, который позволяет редактировать видео на основе текста и изображений прямо в нейросети.
Что можно сделать:
- Заменять элементы на ключевых кадрах: например, менять одежду персонажа или заменять лицо актёра.
- Удалять объекты: убирать лишние элементы или людей из кадра — просто укажите область и дайте команду.
- Добавлять объекты: используя 1–2 референс-изображения и текстовый запрос, можно вставить в видео, скажем, космический корабль или персонажа в стиле аниме.
Все эти функции работают с короткими видео от 1 до 5 секунд и предоставляют беспрецедентную свободу тем, кто ранее был ограничен лишь генерацией «как получится».
Kling AI 2.0 уже называют «режиссёрским пультом нового времени». Это не просто альтернатива для операторов и монтажёров — это платформа, на которой любой сценарист, дизайнер или маркетолог может реализовать свою идею в визуальную историю, не имея знаний в монтажных программах или графике.
В условиях растущего интереса к генеративному видео и конкуренции с такими продуктами, как Sora от OpenAI или Veo от Google, китайская компания Kuaishou предлагает свой уникальный подход — акцент на художественном контроле, детализации и интерактивности.
Kling AI 2.0 — это уже не эксперимент. Это полноценный инструмент для визуального сторителлинга будущего.
Ранее мы писали про нейросеть AnyStory AI, которая умеет писать книги.