Этика в сфере ИИ или новые вызовы человечеству в XXI веке

7079e31ae07a2c6e5a765d8c300930c2.png

Тема этики — одна из самых спорных тем в принципе. 

Мы не стали акцентировать внимание на популярных проблемах, связанных с deepfake, безопасностью данных или использованием ИИ преступниками и хакерами. Вместо этого мы решили затронуть перспективы развития искусственного интеллекта. 

Как научить морали сильный искусственный интеллект?  

Как избежать использования человека как средства?

Как сделать ИИ безопасным (и использовать его в военных целях)?

Все эти вопросы так или иначе уже стоят или будут стоять перед разработчиками и государствами в течение следующих несколько лет. Мы специально не ориентировались на техническую часть вопроса, сколько максимально сущностную (фундаментальную), ведь в ней и скрывается вектор решения. 

Сильный искусственный интеллект и Super AI: новый человек или сверхмашина?

AGI или artificial general (общий) intellegence — интеллект, очень похожий на человека, владеющий всеми человеческими интеллектуальными навыками и обладающий соответственно автономией. 

И это не говоря уже о Super AI, которое бы превосходило человеческие возможности (речь, например, о «Демоне Лапласа», способного вычислить все положения частиц во вселенной и предсказать будущее утрированно). Такое ИИ способно гипотетически решать сложнейшие задачи в перспективе малого количества времени, в том числе и обхода собственного контроля.  

Уже на протяжении 50-ти лет, с появлением первых компьютеров на машинном коде, ученые и философы начали активное обсуждение вообще фундаментального устройства человеческого мозга и возможности его воссоздания на уровне машины. 

В общем и целом, сегодня существуют три доминирующих мировоззрения в этом вопросе: материализм/физикализм (сознание = физ. процессы), функционализм (сознание как результат вычислительных процессов), эмерджентизм (сознание как побочное свойство действия нейронов). 

И все сводится к одному вопросу: можно ли свести мозг к математическим абстракциям, логическим выражениям и вообще бинарным структурам, чтобы воспроизвести через нейронные сети?

Для самой этики это не столь важно. Ведь если понимать AGI как сильный искусственный интеллект широкого назначения и автономии, то достаточно попросту наличия хоть какой-то автономии.

Существует такой популярный эксперимент «Китайская комната», который постулирует: любой алгоритм, обладая набором инструкций (те же распределенные веса связи слов в моделях LLM) может имитировать «понимание» вопросов. 

В представленной ситуации воображаемой Китайской комнаты человек, не знающий китайского языка, находится внутри и обрабатывает входящие китайские символы согласно инструкциям, также на китайском. Несмотря на способность обработки символов и генерации ответов, человек в комнате фактически не понимает языка, который он использует для взаимодействия с внешним миром.

И поэтому мы никогда не сможем по речевому поведению усмотреть ментальный, обязательный феномен человеческого сознания как «понимание» или «осмысление».

Самый пока что прямолинейный подход в воссоздании человеческого интеллекта наблюдается в методе «Emergence», на нем основан, кстати, проект OpenAI, показывающий впечатляющие результаты. 

Такой подход действительно показывает некоторые результаты: например, набор «нейронов» может генерировать подобие когнитивных карт ориентации в пространстве. Но правда в том, что такой подход вообще не контролируем, ведь он никак не регулируется и зависит, скорее, от «скармливаемых» данных. Хотя на это и делаются ставки. Вместо того чтобы архитектурно стремиться разработке AGI, создаются условия для его возникновения. 

В контексте нейронных сетей, подход «emergent» означает, что сложные характеристики или поведенческие особенности модели возникают автоматически в процессе обучения, без явного задания конкретных правил или шаблонов. Это взаимодействие нейронов и слоев сети ведет к формированию эмерджентных свойств, которые могут быть неочевидными при анализе отдельных компонентов.

Множество объектов формирует некоторое

Множество объектов формирует некоторое «свойство» физического тела. Так, например, молекулы воды формируют волны. А с точки зрения некоторых ученых и философов, сетка нейронов мозга — сознание и когнитивные способности человека. 

Вместо того чтобы программировать нейронные сети на выполнение конкретных задач, при использовании подхода «emergent» сеть обучается на данных и адаптируется к условиям задачи. Например, в обучении с подкреплением, где агент взаимодействует с окружающей средой, эмерджентные свойства могут включать в себя развитие стратегий, которые агент самостоятельно вырабатывает в процессе взаимодействия со средой, оптимизируя свою производительность.

Такой подход также может быть связан с использованием нейросетей с большим числом слоев и параметров, где обучение происходит на более высоких уровнях абстракции. Это позволяет модели выявлять сложные закономерности в данных и создавать эмерджентные структуры, которые позволяют эффективно решать поставленные задачи.

Именно поэтому Ник Бостром и Элиэзер Юдковски приводят доводы в пользу деревьев решений (таких, как ID3) против нейронных сетей и генетических алгоритмов, потому что деревья решений подчиняются современным социальным нормам прозрачности и предсказуемости. 

Сегодня не существует понимания механизмов формирования абстрактных мировоззрений, убеждений, мотивов и морали в мозгу. А значит предсказаний момента их возникновения при симуляции нейронной сетей мозга быть не может. 

Поэтому в точке перехода к AGI, когда возможно возникновение эмерденентных («случайно возникающих») феноменов по типу морали, мы никак не сможем контролировать их содержание. 

И в этом и состоит ключевая проблема этики сильного искусственного интеллекта — нет средств и инструментов, чтобы вшить инструкции, предписания или гуманные мотивации. 

Но проблема здесь лежит еще глубже: нечего предписывать. Ибо любое этическое предписание уже предполагает наличие выбора одних ценностей перед другими. 

Допустим, практически любое общечеловеческое благо или благо отдельной группы людей зачастую противоречит благу частного лица. Поэтому принципиальный выбор между тем или иным =  обязательный ущерб одному из субъектов, будь то хоть целый социальный класс или отдельный человек. 

Нет абсолютно благих принципов этики, как и нет четкой и понятной этической системы, которая могла бы хоть как-то понизить шансы возникновения «неморального» сильного ИИ. Поэтому отсутствие эмоций у искусственного интеллекта — определенный плюс. Возможно, эмпатичность и распознавание человека как «своего» формирует почву для возникновения около гуманных ценностей.

Печальным примером проявления эмоций может послужить ИИ-ассистент из Космической Одиссеи Кубрика, саботирующий работу пилота корабля. 

Печальным примером проявления эмоций может послужить ИИ-ассистент из Космической Одиссеи Кубрика, саботирующий работу пилота корабля. 

В этом смысле у GAI две проблемы: в силу популярности «emergence» подхода, направленного на непредсказуемый результат, сама непредсказуемость и невозможность на философском уровне выработки этических правил делает сильный ИИ опасным. С другой стороны, неморальный и гнусный GAI — это не проблема, ведь по своему функционалу он не должен превосходить человека. 

Но что насчет Супер искусственного интеллекта, которого так боится Элиезер Юдковский? Проблема в том, что возникновение SAI вероятнее, нежели возникновение GAI, так как оно независимо от человеческих способностей и ориентировано концептуально больше на решение сложных задач (вычислительных). 

Примером осмысления синтеза GAI и SAI становится Альт Каннигем (Cyberpunk 2077), которая обладает невероятными интеллектуальными способностями и при этом странной антропоморфностью. Мистичность такого создания подчеркивается еще и тем, что сам конструкт обладает совершенно непонятной для человека мотивацией. 

Примером осмысления синтеза GAI и SAI становится Альт Каннигем (Cyberpunk 2077), которая обладает невероятными интеллектуальными способностями и при этом странной антропоморфностью. Мистичность такого создания подчеркивается еще и тем, что сам конструкт обладает совершенно непонятной для человека мотивацией. 

И так как, опять концептуально, оно является производной Narrow AI (узкоспециализированного искусственного интеллекта), то предполагает предписанную задачу и цель. А возникновение предписанной цели предполагает выборку средств, причем с наличием автономии. И вот автономия может расположить искусственный интеллект, например, к использованию человека как «средства».

Естественно, такая проблема должна решаться моральными предписаниями и готовой «гуманной» мотивацией ИИ. Но здесь мы просим вас вернуться к нескольким абзацам выше. 

Narrow AI: слабый искусственный интеллект в военных целях

«Если какая-либо крупная военная сила продвигает разработку ИИ-оружия, практически неизбежна глобальная гонка вооружений, и в итоге автономное оружие станет автоматом Калашникова завтрашнего дня». 

На самом деле, проблема ИИ в военном секторе не строится по принципу:, а вдруг искусственный интеллект уничтожит союзника. Эта проблема решаема, ведь отвечает вполне понимаемым задачам холодного расчета. 

Страны активно разрабатывают и внедряют военные технологии на базе искусственного интеллекта в попытке укрепить свое военное превосходство. Это создает геополитическую напряженность и может привести к гонке вооружений в сфере искусственного интеллекта, а значит и к увеличению смертоносности и беспрекословности оружия. 

73d675778b63e1cf6981a40c268b542e.png

Гонка вооружений в области ИИ может привести к созданию высокоэффективных и автономных систем, что, в свою очередь, повышает риск ошибок, аварий и даже потенциальных кибератак.

К сожалению, практика ведения войн показывает, что международные конвенции нарушаются, а разработка ядерной бомбы, например, образовала новую эпоху в политической жизни всего мира.

С другой стороны, развитие ИИ в военной сфере может привести к невозможности любого вооруженного конфликта либо делегированию вооруженных столкновений беспилотникам. Как ядерная бомба запретила любые войны на уничтожение наций и государств, так и ИИ может запретить «войны», так как будет предполагать автоматическое поражение. 

Но войны между равными странами, обладающими искусственным интеллектом в своем вооружении. А что насчет конфликтов между странами третьего мира и высокоразвитыми государствами? Главное отличие ядерного оружия — сдерживающий фактор в крупных войнах (т.к атомная бомба обладает слепой разрушительной силой). Искусственный интеллект, способный распознавать цели и уничтожать их в частном порядке, дает значительное преимущество на поле боя и не создает эффекта разрушительности. 

Подобная ситуация может стать опасной и привести к порабощению или явному политическому давлению со стороны высокоразвитых стран вплоть до экономического паразитизма. Впоследствии развития ИИ в военном секторе может привести к образованию новых военных союзов и коалиций. 

Почему перед разработчиками стоят серьезные этические вызовы, которые нужно решать сегодня?

Этика в военных вопросах использования ИИ стоит уже не первый год. Так, например, беспилотники без проблем уничтожали террористические группировки, практически не давая никакого шанса на выживание. Тем более, ООН уже фиксировали уничтожение террористов без использования человека-оператора. 

Если говорить об GAI и SAI, то здесь вопросы упираются в разработку грамотного этического кодекса и способа контроля «emergent»-подхода, который может привести к необратимым последствиям вплоть до самораспространения нейросети или выбора человека как средства. 

И это лишь малая часть этических проблем, которые стоят перед разработчиками ИИ. Не зря последнее время мы слышим много новостей, связанных с этой темой как со стороны крупных корпораций по типу Google и OpenAI, так и государств. 

Да, и напоследок советуем посмотреть одно из видео Bostons Dynamics.

© Habrahabr.ru