Skip to main content

Ученые изучили более трех тысяч откликов нейросетей на 14 различных языках, все из которых были связаны с новостным контентом. 45% текстов, созданных ИИ, содержали хотя бы одну значительную ошибку: от неточных формулировок до фактических неточностей. 

Согласно информации от Reuters, исследованием ошибок занимались Европейский вещательный союз и BBC. Аналитики выявили случаи, когда Gemini неверно интерпретировала изменения в законодательстве о одноразовых вейпах, а ChatGPT ошибочно указала, что папа римский Франциск все еще является действующим понтификом, хотя с его кончины прошло несколько месяцев. 

Reuters направило запросы в Google и OpenAI с просьбой прокомментировать итоги исследования. Ранее OpenAI и Microsoft признавали наличие проблемы «галлюцинаций» – ситуаций, когда ИИ создает ложные или вводящие в заблуждение данные из-за недостатка информации или ошибок в процессе обучения модели. 

Ранее редакция IT Speaker сообщала, что в августе 2025 года объем недостоверной информации, предоставляемой ИИ-чатами, увеличился почти в два раза по сравнению с августом 2024 года и составил 35%. Это связано с тем, что нейросети ищут информацию в интернете.

Вам может быть интересно: 

ИИ-ведущая представила программу о нейросетях

Close Menu
Новости интернет маркетинга, сайтов, новости нейросетей и технологий