Moral machine: инженеры наделили искусственный интеллект моралью и этикой

Чем сильнее ИИ входит в нашу повседневную жизнь, тем чаще ему приходится сталкиваться со сложными морально-этическими дилеммами, решить которые порой не так просто и живому человеку. Ученые MIT попытались решить эту проблему и наделили машину способностью к мышлению в рамках морали, основанных на мнении большинства живых людей.
b278292e8606a6a6ea687b2f1de56749_cropped
Василий Макаров
18 октября 2017 10:45

Обсудить 0

Некоторые эксперты считают, что лучший способ тренировать искусственный интеллект для обработки морально сложных ситуаций — это использование «опыта толпы». Другие утверждают, что подобный метод не обойдется без предубеждений, и разные алгоритмы могут прийти к разным выводам на основе одного и того же набора данных. Как же в такой ситуации быть машинам, которым явно придется принимать непростые морально-этические решения при работе с реальными людьми?

Интеллект и мораль

По мере развития систем искусственного интеллекта (ИИ) эксперты все чаще пытаются решить проблему того, как лучше всего дать системе этическую и моральную основу для совершения тех или иных действий. Самая популярная идея состоит в том, чтобы ИИ делал выводы, изучая решения человека. Чтобы проверить это предположение, исследователи из Массачусетского технологического института создали Moral Machine. Посетителям веб-сайта было предложено сделать выбор в отношении того, как должен поступить автономный автомобиль в том случае, если ему пришлось столкнуться с довольно тяжелым выбором. К примеру, это всем знакомая дилемма о потенциальной аварии, у которой есть лишь два варианта развития событий: автомобиль может сбить трех взрослых, чтобы спасти жизни двух детей, а может поступить наоборот. Какой вариант выбрать? И можно ли, к примеру, пожертвовать жизнью пожилого человека, чтобы спасти беременную женщину?

В результате алгоритм собрал огромную базу данных на основании результатов тестирования, и Ариэль Прокачча из отдела компьютерных наук Университета Карнеги-Меллона решил использовать их для совершенствования машинного разума. В новом исследовании он и один из создателей проекта, Ияд Рахван, загрузили в ИИ полную базу проекта Moral Machine и попросили систему предсказать то, как машина на автопилоте отреагировала бы на похожие, но все-таки слегка отличающиеся сценарии. Прокачча хотел продемонстрировать то, как система, основанная на результатах голосования, может стать решением для «этического» искусственного интеллекта». Сам автор работы признается, что подобную систему, конечно, еще рано применять на практике, однако она превосходно доказывает саму концепцию того, что это возможно.

Перекрестная мораль

Сама идея выбора между двумя морально негативными результатами не нова. У этиков для нее используется отдельный термин: принцип двойного эффекта. Но это область биоэтики, а вот к машине подобную систему ранее никто не применял, а потому исследование вызвало особый интерес у экспертов по всему миру. Сопредседатель OpenAI Элон Маск считает, что создание «этического» ИИ — это вопрос разработки четких руководящих принципов или политики для управления развитием программы. Политики постепенно прислушиваются к нему: к примеру, Германия создала первые в мире принципы этики для автономных автомобилей. Даже у Alphabet AI DeepMind, принадлежащей Google, теперь появился отдел этики и общественной морали.

Другие эксперты, в том числе команда исследователей из Университета Дьюка, считают, что лучший способ продвижения вперед — создание «общей структуры», которая описывает то, как ИИ будет принимать этические решения в той или иной ситуации. Они считают, что объединение коллективных нравственных взглядов, как в той же Moral Machine, позволит в будущем сделать искусственный интеллект даже более моральным, чем современное человеческое общество.

Критика «моральной машины»

Как бы то ни было, в настоящее время принцип «мнения большинства» далек от надежности. К примеру, одна группа опрашиваемых может иметь предубеждения, не свойственные всем остальным. Результатом будет то, что ИИ, получившие совершенно одинаковый набор данных, могут прийти к различным выводам на основании разных выборок из этой информации.

Для профессора Джеймса Гриммельманна, который специализируется на динамике между программным обеспечением, богатством и властью, сама идея общественной морали выглядит порочной. «Она не способна научить ИИ этике, а лишь наделит его подобием этических норм, присущих определенной части населения», утверждает он. Да и сам Прокачча, как уже было упомянуто выше, признает, что их исследование — не более, чем удачное доказательство концепции. Впрочем, он уверен, что подобный подход может будущем принести успех всей кампании по созданию высокоморального ИИ. «У демократии, вне всякого сомнения, есть ряд недостатков, но как единая система она работает — даже при условии, что часть людей все еще принимает решения, с которыми не согласно большинство».

©  Популярная Механика