Эксперты Центрального университета (ЦУ) разработали метод, который позволяет блокировать незаконное использование моделей компьютерного зрения и точно их идентифицировать без необходимости переобучения и дополнительных вычислений. Это поможет в борьбе с пиратством.

«Существующие подходы требуют интеграции защитных механизмов на стадии обучения, что делает их сложными для практической реализации и почти неприменимыми для уже существующих моделей. Мы создали инновационное решение, которое позволяет встроить защиту в модель без переобучения», – отметил старший научный сотрудник Лаборатории ИИ, анализа данных и моделирования ЦУ Глеб Рыжаков. Его высказывания публикует ТАСС.
По его словам, в последние годы значительное количество исследователей и крупных ИТ-компаний инвестирует много сил, ресурсов и времени в разработку систем компьютерного зрения и других форм ИИ. Такие продукты крайне сложно защитить от кражи и несанкционированного использования и присвоения, а также подтвердить авторские права на данные технологии.
Российские ученые предложили метод, который позволяет решить эту проблему без ограничений, присущих уже существующим системам защиты технологий ИИ от кражи. Исследователи предложили встроить в уже обученную модель специальные «нейроны-детекторы», которые будут игнорировать обычные изображения и активироваться только при наличии специального «раздражителя», играющего роль секретного ключа.
Ранее российский стартап в области нейротехнологий Neiry разработал и представил голубей-биодронов, которые можно использовать для промышленного мониторинга и поисково-спасательных операций. Благодаря встроенным нейроинтерфейсам ими можно управлять дистанционно.
В США стартует проект по созданию ИИ-ученых


