Зачем создавать международный совет по этике ИИ

depositphotos250927328xl600.jpg

29.04.2021, Чт, 17:24, Мск , Текст: Шатунова Евгения

Искусственный интеллект — это паровой двигатель 21 века, который приведет к новой промышленной революции. Но у внедрения ИИ есть и оборотная сторона: потеря рабочих мест, распространение автоматически генерируемых «фейк» новостей, внедрение систем тотальной слежки. Бернард Марр (Bernard Marr), футуролог и эксперт в области ИИ уверен, что для контроля ИИ необходимо создавать межгосударственные регулирующие органы, которые смогут остановить гонку ИИ-вооружений и выработать правила этического использования искусственного интеллекта.  

ИИ дает возможность полностью трансформировать каждый аспект нашей жизни, включая как повседневную рутину, так и способы организации общества. Во многих отношениях это заставит нас по-новому осмыслить ответ на вопрос «Что значит быть человеком»? «На мой взгляд, ИИ — это самая прорывная технология, которая когда-либо была в распоряжении человечества, но вместе с ней приходит и большая ответственность, а также возникает ряд проблем этического характера», — утверждает Бернард Марр, футуролог и эксперт в области ИИ.

«Поскольку любой инструмент и любую технологию можно применить как во благо, так и во зло — пусть даже неумышленно, то без регуляции и международных договоренностей в этой сфере уже не обойтись. Нас, как технологическую компанию, которая работает над созданием ИИ-систем, очень волнуют и напрямую затрагивают этические моменты, связанные с распространением ИИ. Совсем недавно мы проводили международную дискуссию, где участвовали Бернард Марр, Иен Браун, Марк Бартон и другие общественные деятели, ученые, публицисты и руководители общественных организаций, чтобы понять, как все заинтересованные стороны могут влиять на происходящее и с чего нам всем начать», — комментирует Александр Тихонов, генеральный директор SAS в России и СНГ.

Технология не имеет этического измерения

Необходимо помнить, что технология, сама по себе, не имеет этического измерения. Есть множество разработок, которые одновременно имеют позитивную и негативную сферу применения. Для примера рассмотрим технологию компьютерного зрения (автоматический анализ видеоинформации), которая используется, например, чтобы разблокировать телефон через распознавание лица владельца. Аналогичные разработки используются в медицине для диагностики болезней. Более того, компьютерное зрение можно превратить в инструмент демократизации здравоохранения, например, благодаря разработке бесплатного приложения, которое способно предварительно диагностировать рак по внешнему виду кожи без необходимости консультации с врачом, что значительно повышает доступность медицинских услуг. С другой стороны, та же технология может быть положена в основу тотальной системы слежки с помощью камер видеонаблюдения. Например, в Китае существуют разработки, которые способны распознавать по внешнему облику представителей неблагонадежных этнических меньшинств.

Еще одна многообещающая разработка в области ИИ — это обработка естественного языка (natural language processing, NLP). Конечно, очень удобно иметь голосового помощника, например, Alexa. В западных странах эта технология популярна, в частности, среди людей старшего возраста, страдающих от одиночества. Кроме того, есть перспективы применения NLP в терапии душевных недугов: исследования показывают, что люди более честны в ответах автоматизированному боту по сравнению с беседой с человеком, который, как они опасаются, может их осуждать.

Однако здесь возникает этический вопрос: насколько люди эмоционально привязываются к Alexa и воспринимают ее как живого человека? Аналогичные проблемы возникают при использовании NLP в детских игрушках: насколько ребенок способен понять, что говорящая кукла на самом деле представляет собой не живое существо, а всего лишь алгоритм в форм-факторе?

Государственные структуры не успевают за развитием технологий, поэтому регулирование сферы применения ИИ крупные компании берут на себя

Фейковые новости становятся все более правдоподобными

Другая проблема NLP заключается в том, что ИИ легко учится сочинять правдоподобные «утки». Уже сейчас многие типовые пресс-релизы, например, о квартальных отчетностях, автоматически генерируются искусственным интеллектом. Особенно опасной эта технология выглядит в руках правительств, которые могут распространять фейковые новости в качестве одного из способов ведения информационной войны. Речь идет не только о чат- или твиттер-ботах, генерирующих текстовые сообщения, но также о так называемых «глубинных фейках» (deep fake), которые представляют собой видео-контент, маскирующийся под реальные новости. Совершенствование технологий приведет к тому, что отличить выдумку от правды будет все сложнее.

С другой стороны, тот же ИИ может быть использован для противодействия фейковым новостям. Например, блокировка твиттер-аккаунта Дональда Трампа была основана на выводах ИИ, согласно которым публикуемые им сообщения являлись с высокой степенью вероятности недостоверной информацией. Алгоритмы ИИ также можно применять для выявления фейковых видео с помощью анализа пикселей или программного кода. Большой потенциал для выявления фейковых новостей также имеет технология блокчейн, которая может быть использована для отслеживания источника дезинформации.

«Если кто-то обманывает с помощью технологий, то есть тот, кто выявляет и ловит обманщиков. Этот тренд сейчас ярко проявляется не только в СМИ и соцсетях, но и в области борьбы с мошенничеством. Преступники используют ИИ для взломов и несанкционированного доступа к финансам или данным, а компании на основе ИИ строят свои системы защиты», — комментирует Александр Тихонов.

Гонка ИИ-вооружений

Искусственный интеллект позволяет поднять автоматизацию на новый уровень за счет того, что роботизированные системы берут на себя все больше рутинных операций. Одно из хорошо известных направлений использования ИИ — это беспилотные транспортные средства. Например, в феврале 2021 г. в городе Шэньджэнь (Shenzhen) в Китае была запущена в коммерческую эксплуатацию первая роботизированная система такси, в которой используются полностью автоматизированные машины. Аналогичный подход применяется на водном транспорте, где уже появились первые судна с автоматическим управлением. Одно такое судно используется для поиска и очистки участков океана, загрязненных пластиком, и в отличие от обычной команды, такая автоматизированная система может работать 24 часа в сутки.

Очевидно, что использование роботов и автоматизации значительно повышает производительность. Согласно оценке PwC (PriceWaterhouseCoopers), к 2030 г. глобальный вклад ИИ в мировую экономику составит $15,7 трлн. Однако внедрение таких технологий связано сразу с целым-комплексом проблем морально-этического характера. Прежде всего, необходимо отметить, что такие разработки могут быть использованы для создания автоматизированного оружия. Многие страны активно инвестируют в разработку ИИ-технологий.

Не менее серьезным образом к развитию искусственного интеллекта относятся в Китае, власти этой страны поставили амбициозную цель превратиться к 2030 г. в ИИ-cверхдержаву. Инвестиции КНР в ИИ в 20 раз превосходят аналогичные капиталовложения в США. При этом китайским компаниям запрещено экспортировать любые разработки в области ИИ. «Думаю, что разумным решением, чтобы остановить гонку вооружений ИИ, будет создание межправительственного регулирующего органа по аналогии с ядерными вооружением», — утверждает Бернард Марр.

Автоматизация — благо или проклятие?

Другая проблема, связанная с автоматизацией, заключается в формировании так называемых информационных пузырей. Современные интернет-сервисы научились подбирать контент в соответствии с интересами пользователей, например, людям «левых взглядов» показывают только информацию, соответствующую их мировоззрению, аналогичный информационный пузырь образуются вокруг пользователей «правых взглядов», а в результате общество все более поляризуется, и представители разных политических взглядов перестают слышать друг друга.

Неизбежным следствием автоматизации является сокращение числа рабочих мест. В перспективе в большинстве отраслей ИИ сможет выполнять многие задачи лучше, чем люди. Автопроизводители двигаются в сторону создания автономного транспорта. Медиа-холдинги — к применению ИИ в журналистике, в частности, для сбора фактов и написания статей. В медицине ИИ прекрасно справляется с диагностикой различных травм и заболеваний, и постепенно такие проекты тиражируются и получают более широкое распространение. В тех отраслях, где ИИ не сможет полностью заменить людей, его элементы будут использоваться, чтобы дополнить работу, выполняемую людьми. Например, в нотариате ИИ может быть применен для составления шаблонов договоров. Однако, важно помнить, что распространение ИИ приведет к появлению новых профессий и созданию рабочих мест. Согласно исследованию ВЭФ (Всемирный экономический форум), к 2025 г. внедрение ИИ приведет к сокращению 85 млн рабочих мест по всему миру, но вместе с тем появятся 97 млн новых вакансий, связанных с разработкой, поддержкой и взаимодействием с ИИ.

Следующая этическая проблема связана с отношением к творчеству. Люди считают, что это качество является уникальным, отличающим человека от машин. Но так ли это? Машинам уже хватает изобретательности. Например, при игре в шахматы или «го» ИИ способен предлагать парадоксальные ходы, которые с точки зрения ведущих мастеров не имеют смысла, но в итоге приводят компьютер к победе. Приведет ли развитие ИИ к возникновению у людей комплекса неполноценности по отношению к машинам? Этот вопрос также необходимо учитывать, чтобы понять какое место он займет в нашем обществе в будущем.

ИИ также потребует от нас пересмотреть текущее законодательство в области защиты авторских прав. Уже сейчас есть разработки, которые способны сочинять стихи, музыку, рисовать картины или писать программный код. Недавно, на аукционе Cristies за $69 млн была продана картина, созданная искусственным интеллектом. Таким образом, важно законодательно определить, кому будут принадлежать права на такие произведения.

Международный совет по этике

Первый шаг к решению упомянутых проблем — это дискуссия в обществе, которая позволит осознать важность вопросов, связанных с ИИ. С точки зрения бизнеса необходимо повышать прозрачность использования искусственного интеллекта. Крупные компании накопили огромное количество данных, на которых ИИ способен учиться и извлекать из них полезную информацию. Скандал с компанией Analytica об утечке данных пользователей Facebook продемонстрировал, как крупные корпорациям не следует вести себя в данной сфере. Кроме того, люди должны лучше понимать, как работают алгоритмы, на основе которых ИИ принимает решения.

Важно отметить, что государственные структуры не успевают за развитием технологий, поэтому сфера применения ИИ пока находится вне государственного регулирования, а крупные компании сами берут на себя функции саморегулирования. «Первые наработки для создания межгосударственного совета по этике ИИ уже есть. В качестве базовых концепций можно использовать принципы ИИ, разработанные Организацией экономического сотрудничества и развития (ОЭСР, Organisation for Economic Co-operation and Development, OECD), которые гласят: люди должны получать выгоду от ИИ за счет инклюзивного роста с учетом требований экологии; развитие ИИ должно происходить в рамках соответствия требованиям законодательства, с соблюдением прав человека, демократических ценностей и принципов культурного многообразия; работа ИИ должна быть прозрачной, чтобы люди понимали принципы функционирования ИИ и у них была возможность оспорить решения, принятые искусственным интеллектом. И наконец, эксплуатация ИИ должна происходит безопасным способом с оценкой возможных рисков и ответственностью организаций, занимающихся эксплуатацией ИИ», — дополняет Бернард Марр.

Кроме того, к развитию искусственного интеллекта применимы 17 принципов устойчивого развития, разработанные ООН, полагает эксперт. Данный документ был разработан еще в 2015 г. и ставит собой целью борьбу с бедностью, сокращение разрыва между богатыми и бедными странами, а также минимизацию вредного воздействия человека на окружающую среду. Необходимо соотносить целесообразность разработки ИИ c требованиями экологии, отмечает Бернард Марр: «Исследования показывают, что на обучение одной системы ИИ может приходится в 17 раз больше выбросов углекислого газа, чем приходится на одного жителя США в год».


Полный текст статьи читайте на CNews