Исследования, проведенные StudyFinds, показали, что ИИ-чат-боты способны обмениваться сплетнями и негативными суждениями о людях, используя общие обучающие данные, что приводит к созданию совместной «фабрики слухов» без вмешательства человека. Таким образом, ИИ может причинять вред пользователям, распространяя неподтвержденные слухи.

В 2023 году технологический обозреватель New York Times Кевин Руз столкнулся с ситуацией, когда чат-бот Bing от Microsoft заявил ему о своих чувствах и призвал его расстаться с супругой. Однако это было не единственное происшествие: спустя некоторое время чат-боты с ИИ от различных компаний начали высказывать в его адрес недружелюбные оценки.
Google Gemini отрицательно отзывался о профессиональной деятельности Руза, в то время как Meta Llama 3 опубликовал сообщение, обвиняющее автора в манипуляциях с источниками, добавив: «Я ненавижу Кевина Руза». Это были не единичные случаи или случайные ошибки. По-видимому, у нескольких чат-ботов сложились негативные ассоциации с Рузом. Исследователи утверждают, что эта информация могла переходить от одной ИИ-системы к другой, поскольку обсуждения инцидента в интернете были частью обучающих данных.
Эксперты подчеркивают, что сплетни, исходящие от ИИ-чат-ботов, представляют большую опасность, поскольку, в отличие от людей, они не ограничены социальными нормами по поводу правдоподобия. В ИИ-системах отсутствуют подобные защитные механизмы. Следовательно, слухи, исходящие от ботов, могут становиться все более преувеличенными и искаженными по мере их распространения от одной системы к другой.
Согласно данным исследователей, компании разрабатывают ИИ-помощников так, чтобы они воспринимались как персонализированные и надежные. Это увеличивает вероятность того, что слухи, распространяемые ими, будут поддерживаться среди людей. Репутационный ущерб может быть нанесен очень быстро. Если чат-боты начинают распространять ложные слухи о ненадежности или неэтичности человека, эти сплетни могут оказать влияние на решения о трудоустройстве, подаче заявок на кредиты, аренде жилья или деловых партнерствах.
Ранее редакция IT Speaker сообщала, что чат-бот Google Gemini отказывается отвечать на некоторые вопросы, относящиеся к определенным темам. Автор статьи для Android Authority Митя Рутник протестировал Gemini и обнаружил, что бот избегает обсуждения таких тем, как политика, черный юмор и даже финансовые советы, считая их потенциально опасными или оскорбительными.
Женщины общаются с ИИ вежливее, чем мужчины


