Исследователи из Австралии и Бангладеш создали новую модель ИИ, способную выявлять токсичные комментарии в социальных медиа. Эффективность этой технологии составляет 87%. Это новшество окажет помощь в борьбе с кибербуллингом и ненавистью в интернете, сообщает Techxplore

Ученые протестировали три алгоритма машинного обучения на комментариях. Для анализа были выбраны сообщения на английском и бенгальском языках с различных социальных платформ. Оптимизированная версия модели продемонстрировала максимальную точность – 87,6%, обойдя другие алгоритмы с результатами 69,9% и 83,4%. Разработчики сообщили, что их модель превосходит все имеющиеся аналоги, которые чаще допускают ошибки.
В будущем создатели намерены улучшить модель, используя нейросети, и расширить поддержку других языков. Кроме того, ведутся переговоры с социальными медиа о внедрении технологии для автоматической фильтрации комментариев.
Напоминаем, что почти 63% россиян сталкивались с оскорблениями и грубостью в сети. При этом каждый пятый – довольно часто. За последний год этот показатель увеличился на 2 процентных пункта (п.п.) с 61% в 2023 году.
В РФ могут ограничить доступ в интернет за буллинг