Количество доступных в интернете программ для создания дипфейков значительно возросло. В настоящее время в сети насчитывается свыше 50 тысяч таких решений, в то время как еще два года назад их было практически не найти.

«В открытом доступе появилось более 50 тыс. бесплатных инструментов для создания дипфейков – от мобильных приложений до сложных платформ с искусственным интеллектом», – сообщили «Известиям» в пресс-службе MWS AI (входит в МТС Web Services, ранее MTS AI).
Издание провело собственный эксперимент, в рамках которого был создан дипфейк, и выяснили, что для этого необходимо минимум усилий и навыков. Чтобы сгенерировать цифровой аватар, корреспонденту и его знакомому потребовалось всего две фотографии.
Затем эти изображения были загружены в один из популярных онлайн-сервисов с функцией замены лица, при этом в качестве шаблона использовалось заранее подготовленное фото другого человека. В результате программа автоматически разместила лицо журналиста на теле другого человека. Весь процесс занял не более 10 минут. Однако для создания видео с дипфейком необходимо приобрести подписку, которая предоставляет доступ к более продвинутым алгоритмам. В среднем это стоит от $3 до $6 в месяц.
Таким образом, создание дипфейков не требует значительных усилий, и любой пользователь с базовыми навыками может создать реалистичное видео или аудио от имени любого человека. По словам депутата Госдумы Антона Немкина, угроза заключается не только в фейковых новостях или атаках на репутацию, но и в практическом использовании этих технологий мошенниками.
«Дипфейки применяются для обмана граждан и организаций: поддельные голоса руководителей, видеообращения от “сотрудников банка”, “чиновников” или “родственников” становятся частью сложных схем социальной инженерии», – отметил Немкин в беседе с «Известиями».
По его словам, проблема усугубляется тем, что распознать дипфейк становится все труднее – технологии генерации развиваются быстрее, чем средства защиты. Кроме того, для обычного человека различия между настоящим и сгенерированным контентом почти незаметны. Всё это приводит к массовым манипуляциям и подрыву доверия к визуальным и аудиодоказательствам в целом.
Ранее редакция IT Speaker сообщала, что в мире наблюдается тенденция, когда люди готовы предоставлять свои изображения и голос для использования в мошеннических дипфейках. Обычно модели для дипфейков предлагают свои данные для создания виртуальных персонажей в кино, рекламе и видеоиграх. Однако мошенники используют эти данные для обмана.
Госдума планирует закрепить понятие дипфейков

