Роботоэтика: кто пытается ограничить использование ИИ и что думают эксперты о технологической морали

Какие этические нормы должны распространяться на роботов.

Частные инициативы

В декабре 2015 года Илон Маск и президент венчурного фонда Y Combinator Сэм Альтман основали компанию OpenAI. Она занимается развитием «открытых» и неспособных навредить человеку технологий искусственного интеллекта.

Мы обсудили, что мы можем сделать, чтобы обеспечить хорошее будущее. Мы могли бы просто сидеть в стороне, поощрять регуляторный надзор, или же поучаствовать в развитии ИИ как безопасного и полезного для человечества инструмента.

Илон Маск

Межорганизационные инициативы и решения внутри компаний

В 2016 году в компании Microsoft появился совет по этике. Его создал Эрик Хорвиц, глава исследовательской лаборатории компании. Экспертная группа консультирует Microsoft по спорным вопросам в отношении работы ИИ.

В сентябре того же года Хорвиц и Мустафа Сулейман из компании DeepMind посодействовали появлению консорциума «Партнерство в области ИИ». Первоначально в организацию вошли Microsoft, DeepMind, Amazon, Facebook, Google и IBM, в январе 2017 к ней присоединилась Apple.

Каждая новая технология приносит трансформацию, а трансформация иногда пугает людей, которые её не понимают. Одна из целей нашей группы — действительно объяснить и рассказать о возможностях искусственного интеллекта, в частности, о его опасности и об основных этических вопросах.

Ян Лекун
глава по вопросам искусственного интеллекта в Facebook

Кроме глобальных технологических компаний вопросы этики волнуют и представителей других отраслей. Например, в 2016 году глобальная юридическая фирма K&L Gates выделила $10 млн на создание фонда, занимающегося вопросами этики и вычислительными технологиями, в Университете Карнеги — Меллона.

Государственные инициативы

Об этической стороне разработки искусственного интеллекта говорили в правительстве Франции.

Национальный план по активизации развития искусственного интеллекта рассмотрит вопрос об установлении «этических и философских границ».

Эммануэль Макрон
президент Франции

В конце 2017 года правительство Великобритании выпустило отчёт о том, как государство может поддерживать развитие ИИ. Как сообщает Forbes, в апреле 2018 года комитет палаты лордов по вопросам ИИ опубликовал исследование «AI in the UK: Ready, Willing and Able?».

В Великобритании есть ведущие компании в области ИИ, динамичная исследовательская среда и энергичная экосистема стартапов, а также множество правовых, этических, финансовых и лингвистических сильных сторон. Мы должны максимально использовать область ИИ, но важно, чтобы этика занимала центральное место в её развитии.

Лорд Клемент-Джонс
председатель комитета

В основе исследования лежат пять основных принципов:

  1. Искусственный интеллект должен развиваться для общего блага и пользы человечества.
  2. Искусственный интеллект должен опираться на принципы разборчивости и справедливости.
  3. Искусственный интеллект не должен использоваться для ущемления прав и конфиденциальности отдельных лиц, семей или сообществ.
  4. Все граждане должны иметь право на образование, чтобы вместе с искусственным интеллектом развиваться умственно, эмоционально и экономически.
  5. У искусственного интеллекта не должно быть установок на причинение вреда, обман или уничтожение человека.

Скандалы и вопросы этики

В июне 2018 года компания Google опубликовала принципы использования ИИ в своей работе. По мнению сотрудников, искусственный интеллект должен:

  • быть социально полезным;
  • избегать создания или усиления несправедливости и предвзятости;
  • создаваться и тестироваться без причинения вреда;
  • быть понятен простому человеку;
  • включать в себя принципы конфиденциальности;
  • поддерживать высокие стандарты научного исследования;
  • предоставляться для использования в соответствии с указанными выше принципами.

Редакция The Guardian назвала это «немного большим, чем пылью в глаза», однако отметила, что принципы демонстрируют обеспокоенность инженеров в отношении технологий.

Этические принципы от Google появились как реакция на скандал с участием компании. Когда стало известно, что технологический гигант участвовал в проекте Marven по разработке ИИ для военных беспилотников под началом Пентагона, более 3100 рабочих выразили свой протест и нежелание косвенно участвовать «в военных разработках».

Мы считаем, что Google не должна заниматься военным делом.

Признавая моральную и этическую ответственность Google, угрозу репутации компании, мы просим вас:

1. Немедленно отменить участие в проекте.

2. Разработать, опубликовать и далее применять чёткую политику, в которой будет говориться, что ни Google, ни его подрядчики не будут когда-либо участвовать в создании технологий для ведения войны.

Текст письма от сотрудников Google

1 июня глава Google Cloud Дайан Грин заявила о том, что после истечения договора в 2019 году компания перестанет принимать в программе какое-либо участие. 7 июня появились новые этические принципы компании.

В мае 2018 года специалист в области данных Изабель Клуманн на ежегодной конференции Facebook отметила примеры потенциально неэтичного использования ИИ.

В рамках своего исследования Клуманн задействовала программу Fairness Flow, которая помогает выявить потенциальные предубеждения искусственного интеллекта. Как сказала Изабель, результаты показали, что модели машинного обучения могут демонстрировать сексистское отношение к женщинам и расизм.

Прежде чем запускать алгоритмы, давайте удостоверимся, что они не оказывают разного влияния на людей.

Изабель Клуманн

Использование самоуправляемых автомобилей тоже вызывает вопросы. В марте 2018 года в Аризоне произошла первая авария со смертью пешехода при участии самоуправляющегося автомобиля Uber, за ней — происшествие с летальным исходом для водителя Tesla на автопилоте.

Там, где технология создаёт проблему, она же её и решает. Так и в случае с самоуправляющимися автомобилями, которые смогут значительно сократить количество смертей ежегодно и в конечном итоге свести их до нуля.

Майкл Ханушик
генеральный директор стартапа Alpine для TED Blog

Люди уже доверяют свою жизнь технологиям — самолётам, поездам. Автономные транспортные средства — это всего лишь следующий шаг. Ничто не бывает совершенным, мы это и так знаем. Удобство и экономичность наряду с существующими гарантиями в итоге приведут к внедрению этой новой технологии.

Джанет Бейкер
основатель Dragon Systems для TED Blog

Что думают представители рынка

Мнения экспертов о потенциале искусственного интеллекта и этических принципах в его отношении.

Медиа сегодня часто перебарщивают со статьями про разнообразные антиутопические сценарии будущего, но объективно прогресс находится далеко не на уровне «Терминатора». Искусственный интеллект, который будет думать самостоятельно, не появится ни завтра, ни в обозримом будущем, если это вообще когда-нибудь произойдёт.

Даже сам термин «искусственный интеллект» и контекст его использования пока остаются спорными. Повышение точности алгоритмов — тренд бесспорный и положительный.

Инциденты с автономными автомобилями — скорее следствие не всегда дальновидных решений, которые принимает менеджмент компаний в стремлении обойти конкуренцию и выйти на рынок как можно скорее.

В то же время любая технология — это молоток, который можно использовать для самых разных целей, не только для безобидного забивания гвоздей. Поэтому я — сторонник позиции, что думать обо всех этических аспектах участники рынка должны уже сейчас.

Валерия Комиссарова
основатель консалтинговой компании в сфере развития бизнеса и сбора средств для стартапов Make Hardware в США

Я не считаю, что то, что называют сегодня искусственным интеллектом, может быть опасным для общества, потому что это не интеллект в том смысле, в котором мы его определяем в отношении способности к мышлению человека.

Пока это серьёзная алгоритмизация и использование нейронных сетей, мыслительного процесса не возникает при этом. С другой стороны, я склонен поддерживать начинание некоторых глав крупнейших ИТ-компаний, о котором недавно писали СМИ.

Они заявили, что не будут поддерживать применение искусственного интеллекта в военных разработках. Наверное, это опять-таки звучит преждевременно, но направление их усилий мне нравится, и я склонен его поддерживать.

Если говорить о проблемах, связанных с самоуправляющимися автомобилями, Это скорее всё-таки показывает недоработку технологии, а не опасность искусственного интеллекта. Потому что ошибка возникла не из-за того, что машиной управлял искусственный интеллект, а потому, что его недостаточно хорошо обучили.

Поэтому технологии нужно дорабатывать, нужно разумно подходить к их применению. Государство, наверное, будет тоже принимать активное участие в этом. Кстати, помимо искусственного интеллекта есть намного более актуальные и высокие риски.

Например, если доработать квантовый компьютер, он уничтожит все системы криптозащиты, существующие в мире. Ко всему нужно подходить рационально, разумно и ответственно.

Искандер Гиниятуллин
партнёр в венчурном фонде Sistema VC

Есть много компаний, которые ведут военные разработки и стараются об этом не говорить. Мы не участвуем в проектах, продукты которых хотя бы потенциально могут применяться военными.

Сейчас активно обсуждают вопросы этичности применения искусственного интеллекта в различных областях: медицине, безопасности, кредитном скоринге, автономных автомобилях, рекламе и так далее.

Инновации в технологии открыли новые области для дискуссий в философии и этике. Мне кажется, общество ещё сформирует моральные нормы в этих областях, как это сейчас происходит в области персональных данных.

Юрий Мельничек
основатель инвестиционной компании по поддержке стартапов в области машинного обучения Bulba Ventures в Белоруссии

В какой-то момент робот оказывается в ситуации, в которой он не может не навредить человеку, и ему нужно принять решение, какому человеку навредить. В области самоуправляющихся автомобилей эта проблема может возникать когда угодно.

Нужны правила, например, если есть возможность уничтожить робота, если выбор стоит между ним и человеком. Но неизбежно закладывание принципов минимизации ущерба для человеческого сообщества. Очевидно, что это должно прописываться в законодательстве, что придётся оценивать жизнь ребёнка, женщины или мужчины.

Для роботов придётся прописывать жёсткие правила и некоторые системы ценностей, по которым решение придётся принимать на ходу, вычисляя вероятность того или иного исхода.

В шкале ценностей роботов жизнь человека должна быть на первом месте, послушание человеку — на втором месте, жизнь робота — на третьем, послушание другому роботу — на четвёртом.

Когда мы говорим об ущербе, например, на рынке самоуправляющихся автомобилей, то речь обычно идёт о процентах: вероятность того или иного случая должна быть заведомо не больше, чем при вождении автомобиля человеком.

Производители самоуправляемых авто стараются завышать требования к безопасности, чтобы риски по отношению к человеческому фактору были не просто ниже, а значительно ниже.

Антон Колонин
основатель Aigents, архитектор по программному обеспечению для искусственного интеллекта и блокчейна в Singularity NET

Идея развития искусственного интеллекта как такового подразумевала, что можно создать систему, где принятие решений будет базироваться не на субъективных идеях человека, а на неких объективных признаках.

Мы можем собрать много информации о том, как мир жил, попытаться её проанализировать и заставить искусственный интеллект найти принципы, по которым он может существовать.

Причём наиболее вероятно, что эти принципы нельзя будет формализовать на человеческий язык, это будет такой чёрный ящик, в котором ты можешь создать ситуацию или вопрос, и он будет давать принятие решения. И вот этот чёрный ящик и станет фундаментальной этикой для робототехники.

При этом надо понимать, что решения могут быть неэтичными, в общем, в этом-то и есть проблема, именно поэтому люди боятся искусственного интеллекта. К примеру, убийство человека сложно назвать морально недопустимым решением, потому что если мы представим себе ситуацию, в которой есть вероятность убить одного человека или десять человек, это должно произойти, вопрос в количестве.

После мы узнаём, что один человек — владелец автомобиля, а десять человек — группа из детей. Формализовать признак конкретно в этой ситуации, скорее всего, невозможно. Можно сделать чёрный ящик, проанализировав то, как подобное происходило до этого, и он будет объективным.

В ближайшее время такой чёрный ящик не будет создан, так как мы сейчас практически не используем робототехнику в b2c-секторе, то есть как клиенты практически не взаимодействуем с ней. Первым «публичным» шагом, наверно, можно назвать самоуправляемые авто, а в остальном пока это работает только на предприятиях.

Сейчас робототехника — это оптимизация конкретных бизнес-процессов: хотим быстрее перекладывать продукты с одного конвейера на другой, сортировать их при этом, но это не может создавать угрозу.

Есть отдельное направление — это военная робототехника, оно регулируется государством, нам как отдельно взятым людям трудно трактовать, где этически правильно государству поступить, а где — нет. Оно преследует чуть более глобальные задачи.

Как когда-то писал Ремарк: «одна смерть — это трагедия, а миллион смертей — это статистика». Государство не может ощущать трагедию, для него смерть одного человека — это то, что происходит ежедневно.

Мы точно не сможем коснуться этики военной робототехники, а вся промышленная область будет развивать то, о чём я рассказывал до этого.

Алексей Хахунов
сооснователь и технический директор блокчейн-платформы Dbrain, основатель R-Sept и connectome.ai

#будущее

©  vc.ru