Британские учёные хотят создать кодекс этики для военных роботов

Ноэл Шарки (Noel Sharkey), специалист по робототехнике, физике, биоэтике и философии из британского Шеффилдского университета создал организацию «Международный комитет контроля роботизированного оружия» (МККРО) с целью ограничить распространение роботизированного военного оборудования. Шарки и его коллег беспокоят этические аспекты эксплуатации военных систем, способных принимать самостоятельные решения.

«Роботизированное оружие может изменить характер войн, — сказал Шарки в интервью New Scientist. — Сейчас человечество стремительно движется в сторону создания автономных военных систем, даже не задумываясь, как это может повлиять на гражданское население в долгосрочной перспективе».

В декларации новой организации сказано, что военные роботы должны быть полностью запрещены в космическом пространстве, а также не должны быть вооружены ядерным оружием.

В число организаторов МККРО входят видные учёные: Юрген Альтман (Jürgen Altmann) из Дортмундского технологического университета, Роберт Спэрроу (Robert Sparrow) из мельбурнского Центра биоэтики человека при Монашском университете, философ Питер Асаро (Peter Asaro) из американского Рутгерского университета.

Комитет планирует заняться мониторингом развития автономных вооружений и лоббированием законов о контроле за такими вооружениями, по аналогии с уже существующими законами о ядерном и биологическом оружии. Для работы в комитет будут привлечены новые кадры.

Войны терминаторов сегодня и завтра

Среди самых известных роботизированных военных систем можно перечислить дистанционно управляемые американские самолеты МК-1 «Предатор» и МК-9 «Рипер», хорошо проявившие себя в Ираке и Афганистане, а также мини-вездеход «Талон», который может оборудоваться не только химическими, температурными и радиационными датчиками, но также гранатомётами и пулемётами. Подобных систем уже довольно много, и западные страны активно прибегают к ним для выполнения различных опасных заданий, от разведки до сапёрных работ. По словам Шарки, в настоящее время около 50 стран либо уже имеют такие системы, либо работают над их получением.

Хотя это ещё не в полном смысле роботы, поскольку ими управляет оператор-человек, недалёк тот день, когда такие системы научатся принимать решения полностью самостоятельно, в том числе решения о чьей-либо жизни и смерти. Подобные проекты уже сейчас рассматриваются в американском Пентагоне.

В МККРО также опасаются, что когда жертвами войн будут в основном не люди, а роботы, страны будут более склонны воевать друг с другом. Также возможен сценарий, что автономные системы смогут самостоятельно начинать и обострять военные конфликты без участия человека.

Сейчас в комитете готовят развёрнутый отчёт, который планируется представить на рассмотрение в Европарламент. Летом следующего года в Германии планируется провести конференцию по этой проблематике, на которую будут приглашены учёные, политики и военные.

Не всё так плохо

Всё же роботы-солдаты имеют право на существование — такого мнения придерживается Майкл Коднер (Michael Codner), директор военной кафедры лондонского института «Роял юнайтед сервисес».

«Если использовать их для поиска мин, и никто при этом не рискует, то это абсолютно оправданно, — говорит он. — Но если однажды мы достигнем такого уровня развития искусственного интеллекта, что роботы станут непредсказуемы, потому что будут думать самостоятельно, то будет сложно привлечь их пользователей к ответственности. Но это проблема более отдалённого будущего. Со временем этика и законы должны решить эту проблему».

Инженер по робототехнике Рон Аркин (Ron Arkin) из технологического института Джорджии считает, что в ряде ситуаций на поле боя машины способны вести себя более этично, чем люди. Для этого нужно лишь запрограммировать в них определённые этические правила (религии уже несколько тысяч лет пытаются «запрограммировать» людей вести себя, если не «этично», то хотя бы прилично... — Прим. ред.).

via Newscientist

©  Cyberstyle.ru