
Black Forest Labs представила FLUX.2 — обновлённую серию моделей для генерации изображений. Главная особенность: модель лучше осваивает сложные запросы, работает с несколькими референсами одновременно и создаёт изображения со стабильными лицами, логотипами и типографикой.
FLUX.2 доступен в версиях [pro] и [flex] через Playground и API BFL. Открытые веса можно получить на Hugging Face. Postium собрал больше информации.
Читайте также: 25 нейросетей для создания изображений
Что умеет нейросеть FLUX.2 и как функционирует
FLUX.2 основан на архитектуре latent flow matching и объединяет мощный vision-language-модуль Mistral-3 с новым rectified flow-трансформером. Первый отвечает за интерпретацию запроса, второй — за точное воспроизведение сцены, материалов и освещения.
Основная концепция — стабильная генерация для реальных задач: рекламные кампании, товарные каталоги, продуктовые рендеры, инфографика и макеты интерфейсов. Модель поддерживает один и тот же объект или персонажа от кадра к кадру, обрабатывает до десяти референсов одновременно и принимает структурированные подсказки в формате JSON с точным контролем цвета.
Ключевое изменение — multi-reference. Теперь можно загрузить набор изображений и получить вариации с тем же внешним видом, формой объекта или фирменным стилем без дообучения модели. Это решает давнюю проблему дрейфа, из-за которой персонажи или объекты «плыли» между кадрами.
Качество также улучшилось: более детализированные текстуры, аккуратные руки и лица, меньше артефактов. Второй значимый шаг — типографика. Модель уверенно работает с мелким текстом, логотипами, инфографикой и интерфейсами.
В заключение, увеличилась управляемость контента: FLUX.2 точнее интерпретирует сложные промпты, правильно собирает сцены и принимает структурированные инструкции, что делает генерацию предсказуемым инструментом — а не игрой на удачу.
Как пользоваться FLUX.2 бесплатно?
Веб-Playground — самый быстрый способ протестировать FLUX.2 [pro] и [flex]: туда можно загрузить референсы и сразу получить результаты. Те же модели доступны через API Black Forest Labs и через партнёров — fal.ai, Replicate, Cloudflare Workers AI и Vercel AI Gateway.
Для локального использования подойдёт FLUX.2 [dev] с Hugging Face. Он работает через diffusers и ComfyUI, уже содержит VAE и референсный код, а также предлагает варианты с квантованием для видеокарт вроде RTX 4090/5090.
Почему это важно? Рынок движется от генерации «красивых одиночных изображений» к стабильному производству. Разработчики надеются, что FLUX.2 сможет решить ключевую проблему — консистентность. Для компаний это также экономия: pro/flex обеспечивают производственное качество через API, а dev-версия позволяет создавать собственные пайплайны на открытых весах.
Первое поколение Flux стало популярным благодаря своей открытости. Затем вышли улучшенные версии 1.1. Теперь BFL полностью переобучила архитектуру, выделила производственную ветку и расширила партнёрства с инфраструктурными платформами, чтобы модель можно было запускать прямо «из коробки».
Итог: FLUX.2 делает генерацию изображений более управляемой и предсказуемой — теперь это инструмент для реальной работы, а не просто модель для единичных генераций.


