Home / НОВОСТИ / Перед роботами поставят задачу морально-этического характера

Перед роботами поставят задачу морально-этического характера

Ученые, решившие создать для роботов некую ситуацию этического выбора – кого из одновременно попавших в опасность двух человек необходимо спасать, — неожиданно выяснили, что больше всего смертей в итоге приносит не сам выбор машины, а излишне долгие ее размышления.

О проведении подобного эксперимента на прошедшей 2 сентября в Бирмингеме конференции по автономным роботам заявил сотрудник Бристольской лаборатории робототехники Алан Винфилд.

В ходе эксперимента Винфилд запрограммировал робота как можно дольше удерживать другие, изображавшие людей автоматы от падения в яму. Данный эксперимент, по сути, представляет собой некую иллюстрацию к первому закону робототехники, сформулированному Айзеком Азимовым: «Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред».

На первых этапах эксперимента у машины не возникло никаких проблем: едва лишь «человек» приближался к опасной яме, робот оперативно отодвигал своего единственного «подшефного» от опасного места. Но после того как учеными был добавлен с той же скоростью приближавшейся к ловушке второй автомат, робот оказывался перед дилеммой – кого следует спасать первым.

В этих условиях ему иногда удавалось удержать одного «человека», несколько раз – сразу двоих. Однако в 14 случаев из 33 на этические размышления робот тратил столько времени, что оба «человека» успевали упасть в яму.

Признавая неутешительные результаты проведенного эксперимента, Винфилд подчеркивает, что на сегодняшний день роботы продолжают оставаться некими «этическими зомби», способными соблюдать определенный кодекс поведения, но не понимающими его моральных оснований.

При этом современные специалисты по военной робототехнике способны научить машины принимать этические решения. Так, Рональдом Аркиным уже разработан некий «этический руководитель», необходимый набор алгоритмов, который призван помочь роботам действовать на поле боя и самостоятельно решать: в каких ситуациях стоит прекращать огонь, в какой обстановке стремиться свести к минимуму количество жертв.

Аркин полагает, что проще всего будет научить морали именно военных роботов, поскольку законы ведения войны являются максимально четкими и прописаны в международных договорах, и в отличие от подверженных аффектам и эмоциям живых солдат машины эти законы никогда не нарушат.

Служба информации «НВ»

Рейтинг@Mail.ru