К 2025 году каждая третья мошенническая атака будет осуществляться с применением технологий ИИ. Это может привести к миллионам подобных случаев каждый месяц. Об этом сообщила «Газете.Ru» заместитель директора департамента развития продуктов и руководитель продуктового портфеля компании VisionLabs Татьяна Дешкина.

Эксперт отметила, что мошенники будут применять три основных схемы с использованием ИИ. Первая – атака через дипфейки: злоумышленники будут массово фальсифицировать изображения, видео и голоса людей с целью хищения денег или манипуляции общественным мнением.
«Современные сервисы на базе генеративного искусственного интеллекта позволяют создавать дипфейки в реальном времени, что значительно усложняет возможность их выявления», – добавила она.
Другая схема – обман пользователей сервисов знакомств. В этом случае будут использоваться фальшивые профили, управляемые чат-ботами. По словам Дешкиной, с помощью ИИ злоумышленники могут одновременно взаимодействовать с тысячами потенциальных жертв.
«С возвращением тренда на подарки в социальных сетях и мессенджерах мошенники стали активнее обращаться к пользователям напрямую, минуя приложения для знакомств, и просят подарки, а не финансовую помощь», – добавила она.
Третья схема заключается в том, что преступники начнут активнее использовать ИИ для составления выборок потенциальных жертв. При помощи нейросетей можно находить профили пользователей социальных сетей, находившихся в уязвимом положении и оставлявших соответствующие посты.
«Например, они могут планировать переезд в другую страну, недавно потеряли близкого человека или остро нуждаются в деньгах», – пояснила Дешкина.
Ранее специалисты сообщали, что в январе 2025 года наиболее распространенными схемами среди мошенников стали установка поддельных приложений на смартфоны и переход по подозрительным ссылкам. Кроме того, эксперты отметили, что продолжают фиксироваться множество других мошеннических схем.
Новый вирус крадет данные с фото в iPhone