Этические проблемы автопилота: кого убивать?
Чтобы показать, насколько это болезненный вопрос, учёные из Массачусетского технологического института (США) разработали интерактивный портал Moral Machine, в котором пользователю предлагается сделать выбор в 13 сценариях с неизбежным летальным исходом. Вопрос лишь в том, кого принести в жертву? По каким правилам должен действовать автопилот?
Робот не может принимать нерациональных решений, при этом однажды ему придётся выбирать, кого оставить в живых, а кого убить. Решать совершенно беспристрастно и хладнокровно, в соответствии с программным алгоритмом. Когда учёные из Тулузской школы экономики (Франция) предложили добровольцам оценить, насколько этичны были решения нескольких задач с участием беспилотного автомобиля, большинство участников опроса одобрило ситуацию, в которой число потенциальных жертв будет минимальным. Читать далее
Впрочем, принятие подобного решения в качестве закона одобрило уже меньше участников — особенно, если речь шла о собственном автомобиле, а не абстрактной ситуации. Во всех случаях наибольшее влияние на окончательный ответ респондента оказывало число жертв потенциальной катастрофы, которое в опросе составляло от 1 до 10 человек. Американцы пошли ещё дальше и добавили в свою «Этическую машину» массу обстоятельств: он разделили потенциальных жертв на мужской и женский пол, преклонный возраст и молодёжь, даже на людей с избыточным весом и спортсменов!
Более того, пешеходы могут перебегать дорогу на запрещённый сигнал, а среди потенциальных жертв есть как законопослушные граждане, так и преступники. Даже домашние животные! Стоит ли жизнь собаки того, чтобы попасть в аварию и, возможно, погибнуть? В общем, учёные приглашают всех любителей подумать над этическими проблемами на портал Moral Machine. А после прохождения теста можно сравнить свои результаты с мнением большинства пользователей. И, возможно, удивиться.