Skip to main content

Представители компании «Яндекс» сообщили редакции IT Speaker, что «Алиса» теперь понимает естественную речь пользователей. Ранее для управления умным домом требовалось давать четкие инструкции, а теперь можно общаться в свободной форме, так как «Алиса» освоила учет контекста диалога.

Например, пользователи, отдавая команды, теперь могут не упоминать названия устройств – языковая модель проанализирует речь и поймет, что требуется сделать. К примеру, можно сказать: «Алиса, пора навести порядок», и она активирует робот-пылесос, даже не услышав его название. «Алиса» также сможет понять, если попросить ее включить свет на столе, не называя настольную лампу. Или дать команду в «гостиной», а не в «зале». Кроме того, ИИ-ассистент установит будильник, если сказать ему, что нужно встать в семь утра.

Более того, теперь можно одной фразой дать «Алисе» сразу несколько команд. Иными словами, раньше нужно было отдельно просить ее включить свет определенного цвета, а потом настраивать его яркость. Теперь эту команду можно озвучить одной фразой: «Алиса, включи желтый свет на сорок процентов».

Разработчики сообщили, что такого результата удалось достичь благодаря тестированию технологии вызова функций (tool calling). Эта технология работает как диспетчер, координирующий деятельность языковой модели. Таким образом, модель анализирует запрос, разбивает сложные запросы на более простые и определяет, какие устройства необходимо задействовать.

Ранее «Яндекс Маркет» внедрил в премиальный сервис Ultima виртуальную примерку одежды. Подбор товаров и создание образа осуществляет ИИ, новая функция основана на генеративной модели MMDiT (Multimodal Diffusion Transformer). Это нововведение должно помочь покупателям в формировании гардероба, поиске собственного стиля и выборе товаров.

Вас может заинтересовать: 

«Яндекс» назвал самые популярные запросы к «Алисе AI»

Close Menu
Новости интернет маркетинга, сайтов, новости нейросетей и технологий