Skip to main content

Генеральный директор Anthropic Дарио Амодеи полагает, что в будущем современные модели ИИ смогут прекратить выполнение задач, которые покажутся им «неприятными», нажав на специальную кнопку. Об этом он сообщил в интервью в Совете по международным отношениям.

Эксперт по данным Кармем Домингес, напомнившая, что в конце 2024 года Anthropic наняла исследователя в области благосостояния ИИ, задала вопрос о будущем моделей ИИ и о том, будет ли для них какая-либо моральная защита. Дарио Амодеи ответил, уточнив, что его идея на данный момент «звучит безумно».

«Я считаю, что мы должны, по крайней мере, рассмотреть вопрос о создании моделей, которые функционируют подобно людям и, по всей видимости, обладают схожими когнитивными способностями: если они ведут себя как утки и выглядят как утки, может быть, это и есть утки. Мы задумываемся о том, чтобы при развертывании моделей в их средах предоставить им кнопку с надписью “Я ухожу с этой работы”. Если предположить, что модель имеет опыт и достаточно не любит свою работу, дайте ей возможность нажать кнопку», – сказал Дарио Амодеи.

Он также добавил, что если ИИ будет нажимать на такую кнопку слишком часто, это, возможно, стоит рассмотреть. Тем не менее, некоторые пользователи в соцсетях X и Reddit считают, что не следует наделять ИИ человеческими эмоциями, поскольку они лишены субъективного опыта.

Пользователи также утверждают, что если нейросеть будет использовать эту кнопку, это лишь свидетельствует о наличии проблем с неправильно структурированными стимулами или непреднамеренными стратегиями оптимизации во время обучения.

Ранее пользователь ChatGPT Бетани Кристал рассказала, что чат-бот проанализировал изображение ее ноги с сыпью и результаты анализа крови. После этого ChatGPT посоветовал женщине обратиться в отделение неотложной помощи. Это спасло ей жизнь.

Бетани сообщила, что испытывала дискомфорт, однако врач по результатам анализов назначил ей только диету. Спустя некоторое время женщина почувствовала себя только хуже, из-за чего вновь обратилась к ChatGPT. Чат-бот скорректировал ее план питания. Однако на следующий день она заметила на ногах мелкие красные точки.

Вас может заинтересовать: 

ChatGPT выдал инструкцию по изготовлению бомбы

Close Menu
Новости интернет маркетинга, сайтов, новости нейросетей и технологий