
Платформа WaveSpeedAI анонсировала интеграцию с новой моделью Google Veo 3.1 — одной из самых совершенных ИИ-моделей для видео генерации (мы уже упоминали о скором запуске). Теперь пользователи могут создавать видеоролики из текста или изображений в нативном 1080p с контекстно-синхронизированным звуком.
Модель получила обновленный основной движок, который делает движения более «живыми» и добавляет кинематографичные переходы. Алгоритм R2V (Render-to-Video) улучшает согласованность персонажей и объектов — теперь герой не «меняет лицо» или одежду между кадрами. Подробности можно найти в материале Postium.
Читайте также: Мобильные приложения для ИИ-генерации видео
Что умеет нейросеть Veo 3.1 от Google и как ею пользоваться
WaveSpeedAI — один из первых публичных сервисов, где Veo 3.1 доступна без ограничений API, в веб-интерфейсе и без необходимости локальной установки моделей.
Возможности Veo 3.1:
- Нативное 1080p и 24 кадра/с. Видео готово к публикации без апскейла.
- Контекстное аудио. Модель автоматически подбирает саундтрек и эффекты в зависимости от происходящего на экране.
- Поддержка портретного и альбомного форматов. Удобно для TikTok, Reels и YouTube Shorts.
- Функция «Image-to-Video». Всего лишь одно изображение — Veo анимирует сцену, добавляя движение камеры и объем.
- Режим Fast. Генерация на 20–30% быстрее при немного меньших вычислительных затратах.
- Повторяемость. Можно зафиксировать seed, чтобы получить одинаковый результат при различных рендерах.
Промт для Veo 3.1:
Two person street interview in New York City.Sample Dialogue:Host: “Did you hear the news?”Person: “Yes! Veo 3.1 is now available on WaveSpeedAI. If you want to see it, go check their website.”
Результат:
Ещё один пример промта для Veo 3.1:
Context: A Panda named Bamboo and a Red Fox named Tweed host a casual, witty podcast called “Quantum Quibbles.”Task: Write the absolute shortest, most punchy opening exchange for an episode on quantum entanglement. Focus only on quick introductions and the topic title.Panda (Bamboo): “Welcome to Quantum Quibbles! I’m Bamboo.”Red Fox (Tweed): “And I’m Tweed!”Panda (Bamboo): “Today: Quantum Entanglement!”Red Fox (Tweed): “Let’s dive in.”
Результат:
Кроме того, система стала лучше интерпретировать глубину сцены и работу камеры: поддерживаются эффекты pan, tilt, zoom и dolly, что позволяет имитировать реальные движения объектива.
На сайте WaveSpeedAI доступны четыре режима работы:
- Text-to-Video: создание видео по описанию;
- Image-to-Video: анимация изображения;
- Fast Text-to-Video / Image-to-Video: ускоренные версии для черновых итераций.

Стоимость запуска видео на платформе — от $3,2 за стандартную генерацию. Интерфейс позволяет выбирать длину ролика, ориентацию кадра и уровень детализации. Кроме того, появилась возможность протестировать Veo 3.1 и на платформах типа Flux AI.
Модель Veo — ведущая разработка Google DeepMind в области ИИ-видео. Первая версия была представлена весной 2024 года, но ограничивалась короткими клипами и беззвучным выводом. В версии 3.0 Google добавил поддержку 1080p и вертикальных форматов, а 3.1 стала первым релизом с синхронным звуком и улучшенной пластикой движений.
По данным отраслевых экспертов, Veo 3.1 способна генерировать видеоролики длиной до 60 секунд, сохраняя логику движения и световые эффекты, что делает её одним из конкурентов Sora 2.
Ранее Google обновил главную страницу AI Studio.


