Skip to main content
Veo 3.1 уже доступна на WaveSpeedAI

Платформа WaveSpeedAI анонсировала интеграцию с новой моделью Google Veo 3.1 — одной из самых совершенных ИИ-моделей для видео генерации (мы уже упоминали о скором запуске). Теперь пользователи могут создавать видеоролики из текста или изображений в нативном 1080p с контекстно-синхронизированным звуком.

Модель получила обновленный основной движок, который делает движения более «живыми» и добавляет кинематографичные переходы. Алгоритм R2V (Render-to-Video) улучшает согласованность персонажей и объектов — теперь герой не «меняет лицо» или одежду между кадрами. Подробности можно найти в материале Postium.

Читайте также: Мобильные приложения для ИИ-генерации видео

Что умеет нейросеть Veo 3.1 от Google и как ею пользоваться

WaveSpeedAI — один из первых публичных сервисов, где Veo 3.1 доступна без ограничений API, в веб-интерфейсе и без необходимости локальной установки моделей.

Возможности Veo 3.1:

  • Нативное 1080p и 24 кадра/с. Видео готово к публикации без апскейла.
  • Контекстное аудио. Модель автоматически подбирает саундтрек и эффекты в зависимости от происходящего на экране.
  • Поддержка портретного и альбомного форматов. Удобно для TikTok, Reels и YouTube Shorts.
  • Функция «Image-to-Video». Всего лишь одно изображение — Veo анимирует сцену, добавляя движение камеры и объем.
  • Режим Fast. Генерация на 20–30% быстрее при немного меньших вычислительных затратах.
  • Повторяемость. Можно зафиксировать seed, чтобы получить одинаковый результат при различных рендерах.

Промт для Veo 3.1:

Two person street interview in New York City.Sample Dialogue:Host: “Did you hear the news?”Person: “Yes! Veo 3.1 is now available on WaveSpeedAI. If you want to see it, go check their website.”

Результат:

Ещё один пример промта для Veo 3.1:

Context: A Panda named Bamboo and a Red Fox named Tweed host a casual, witty podcast called “Quantum Quibbles.”Task: Write the absolute shortest, most punchy opening exchange for an episode on quantum entanglement. Focus only on quick introductions and the topic title.Panda (Bamboo): “Welcome to Quantum Quibbles! I’m Bamboo.”Red Fox (Tweed): “And I’m Tweed!”Panda (Bamboo): “Today: Quantum Entanglement!”Red Fox (Tweed): “Let’s dive in.”

Результат:

Кроме того, система стала лучше интерпретировать глубину сцены и работу камеры: поддерживаются эффекты pan, tilt, zoom и dolly, что позволяет имитировать реальные движения объектива.

На сайте WaveSpeedAI доступны четыре режима работы:

  • Text-to-Video: создание видео по описанию;
  • Image-to-Video: анимация изображения;
  • Fast Text-to-Video / Image-to-Video: ускоренные версии для черновых итераций.

Как пользоваться Veo 3.1 на WaveSpeedAI

Стоимость запуска видео на платформе — от $3,2 за стандартную генерацию. Интерфейс позволяет выбирать длину ролика, ориентацию кадра и уровень детализации. Кроме того, появилась возможность протестировать Veo 3.1 и на платформах типа Flux AI.

Модель Veo — ведущая разработка Google DeepMind в области ИИ-видео. Первая версия была представлена весной 2024 года, но ограничивалась короткими клипами и беззвучным выводом. В версии 3.0 Google добавил поддержку 1080p и вертикальных форматов, а 3.1 стала первым релизом с синхронным звуком и улучшенной пластикой движений.

По данным отраслевых экспертов, Veo 3.1 способна генерировать видеоролики длиной до 60 секунд, сохраняя логику движения и световые эффекты, что делает её одним из конкурентов Sora 2.

Ранее Google обновил главную страницу AI Studio.

Google Нейросети

Close Menu
Новости интернет маркетинга, сайтов, новости нейросетей и технологий