Skip to main content

Виталий Данилкин, руководитель продукта «Алиса AI» в «Яндексе», сообщил, что искусственный интеллект компании часто подвергается различным атакам со стороны злоумышленников. Чаще всего они применяют «прокачку»  конкуренты задают множество вопросов, чтобы скопировать нейросеть.

Эксперт уточнил, что во время «прокачки» «Алисе» задается большое количество вопросов за минуту, которые анализируются, создавая «слепок» нейросети. Это позволяет создать ИИ, который будет вести себя похоже, но будет меньше по размеру и с ограниченным функционалом.

«Если говорить просто, без технических деталей, то да. Кто-то приходит в чат-бот, задает множество вопросов и затем на основе полученных ответов пытается воспроизвести аналог бота», – цитирует Данилкина издание «Газета.ru».

Он также отметил, что данный метод способствует созданию собственных моделей ИИ, не требуя больших затрат времени и денег. Однако компания успешно справляется с такими атаками, которые происходят регулярно через IP-адреса, подлежащие блокировке.

Кроме того, на «Алису» совершаются атаки типа джейлбрейка, однако благодаря многоуровневой системе безопасности чат-бот защищен от них. Система включает предварительную и постгенерационную модерацию, а также контекстный анализ диалога. Все попытки осуществления подобных атак распознаются и блокируются.

Ранее Академия Государственной противопожарной службы МЧС России и Центр технологий для общества «Яндекса» запустили уникальный проект по внедрению искусственного интеллекта в расследование причин возникновения пожаров. Это первая в России система, которая поможет сотрудникам МЧС проводить осмотр мест происшествий – от бытовых возгораний до промышленных объектов – быстрее и точнее.

Вас может заинтересовать: 

67% музыкантов используют ИИ

Close Menu
Новости интернет маркетинга, сайтов, новости нейросетей и технологий