Skip to main content

Ученые из Китая утверждают, что использование боевых человекоподобных роботов, находящихся в разработке по всему миру, может привести к этическим дилеммам. В частности, три закона робототехники, предложенные Айзеком Азимовым, не применимы к ним.

«Военные гуманоидные роботы – наиболее человекоподобное вооружение на текущий момент. Вероятные случайные убийства и инциденты, связанные с непреднамеренным причинением вреда при их массовом и стандартном использовании, неизбежно приведут к юридическим обвинениям и моральному осуждению», – подчеркивают исследователи.

Специалисты ссылаются на три закона робототехники, предложенные американским писателем-фантастом Айзеком Азимовым. Они предполагают, что робот не может причинить вред человеку, должен следовать всем его приказам и заботиться о собственной безопасности, если это не противоречит первому правилу. Авторы акцентируют внимание на том, что боевые роботы, безусловно, нарушают первое правило, и поэтому для них требуются новые правила.

«В этой связи военные гуманоидные роботы должны обеспечивать как минимум три условия: подчиняться людям, не изменять программы, зависящие от людей, и не применять насилие без ограничений, установленных пользователями. Уважать людей, четко отличать их от других целей и не уничтожать их без разбора. Защищать людей, уметь вовремя останавливать и ограничивать чрезмерное применение силы», – считают эксперты из Китая.

Ранее промышленный робот нанес смертельные травмы работнику распределительного центра сельскохозяйственной продукции в Южной Корее. Из-за сбоя в системе машина приняла мужчину за коробку и активировала рабочий алгоритм. 

Вас может заинтересовать: 

ИИ научился предсказывать поведение человека

Close Menu
Новости интернет маркетинга, сайтов, новости нейросетей и технологий