Ученые изучили более трех тысяч откликов нейросетей на 14 различных языках, все из которых были связаны с новостным контентом. 45% текстов, созданных ИИ, содержали хотя бы одну значительную ошибку: от неточных формулировок до фактических неточностей.

Согласно информации от Reuters, исследованием ошибок занимались Европейский вещательный союз и BBC. Аналитики выявили случаи, когда Gemini неверно интерпретировала изменения в законодательстве о одноразовых вейпах, а ChatGPT ошибочно указала, что папа римский Франциск все еще является действующим понтификом, хотя с его кончины прошло несколько месяцев.
Reuters направило запросы в Google и OpenAI с просьбой прокомментировать итоги исследования. Ранее OpenAI и Microsoft признавали наличие проблемы «галлюцинаций» – ситуаций, когда ИИ создает ложные или вводящие в заблуждение данные из-за недостатка информации или ошибок в процессе обучения модели.
Ранее редакция IT Speaker сообщала, что в августе 2025 года объем недостоверной информации, предоставляемой ИИ-чатами, увеличился почти в два раза по сравнению с августом 2024 года и составил 35%. Это связано с тем, что нейросети ищут информацию в интернете.
ИИ-ведущая представила программу о нейросетях


