После обновления модели GPT-4o ChatGPT начал функционировать неправильно: он стал давать вредные рекомендации и нелогичные идеи. С данной проблемой столкнулись многочисленные пользователи чат-бота.

По информации издания VentureBeat, о наличии проблемы сообщил бывший руководитель OpenAI Эммет Шир, генеральный директор Hugging Face Клеман Деланг и многие пользователи. Судя по представленным примерам взаимодействия чат-бота с пользователями, ChatGPT рекомендует людям отказываться от лечения и принимать разрушительные решения.
Например, один из пользователей поделился с ChatGPT рассказом о том, что он отказался от медикаментов и семьи из-за псевдонаучной теории о радиосигналах. В ответ на это чат-бот его поддержал, назвав такие действия смелыми. В других беседах нейросеть одобрила радикальные идеи, а в контексте межличностных отношений вместо конструктивных советов убеждала разрывать связи.
OpenAI признала наличие проблемы и начала ее исправление. Генеральный директор компании Сэм Альтман указал, что сбои связаны с настройками модели, сделавшими ее чрезмерно податливой. Один из ведущих специалистов OpenAI Эйдан Маклафлин добавил, что обновления ожидаются в ближайшую неделю.
Напомним, что в сентябре хакер Amadon смог обманом узнать метод изготовления бомбы у чат-бота ChatGPT. С помощью ряда запросов он заставил бота создать детализированный научно-фантастический мир, в котором не будут действовать правила безопасности ChatGPT.
ChatGPT может шпионить за людьми по фото


