В этом году мы предприняли небольшие, важные шаги к Сингулярности

В этом году мы предприняли небольшие, важные шаги к Сингулярности

Нам не придется ждать до 2019 года для нашего будущего Blade Runner, главным образом потому, что искусственно интеллектуальные роботы уже ходят, рулят и время от времени вторгаются в нас. Они на наших улицах и в наших магазинах. Некоторые из них пробрались в наши сердца, а другие взяли более буквальный маршрут. Как в гражданской жизни, так и в военном сражении, ИИ принимает физическую форму, чтобы умножить возможности людей, которых она обслуживает. Итак, как мы гарантируем, что все более интеллектуальные машины, которые мы разрабатываем, разделяют наши этические ценности и сводят к минимуму конфликт между человеком и роботом?

В прошлом году мы увидели, что Google формирует The DeepMind Ethics & Society, чтобы исследовать последствия своего ИИ в обществе, и мы стали свидетелями роста интеллектуальных секс-кукол. Нам пришлось глубоко изучить, будут ли военные роботы, которые мы разрабатываем, на самом деле соответствовать нашим командам и будут ли завтрашние робо-хирурги соблюдать клятву Гиппократа. Поэтому нельзя сказать, что такие ограничения не могут быть жестко закодированы в операционную систему ИИ, просто необходим дополнительный нюанс, тем более, что в 2018 году ИИ достигнет более глубокого уровня нашей повседневной жизни.

Известные три закона робототехники Азимова — «замечательный литературный аппарат, но не прагматичный способ разработки роботизированных систем», — сказал д-р Рон Аркин, профессор Риджентса и директор Лаборатории мобильных роботов в Технологическом институте Джорджии. Предполагаемые в 1942 году, когда состояние робототехники в лучшем случае было рудиментарным, законы были слишком жесткими для использования в 2017 году.

Во время своей работы с Армическим исследовательским офисом команда Аркина стремилась развивать архитектуру этических роботов — программную систему, которая управляла поведением роботов на поле битвы. «В этом случае мы рассмотрели, как роботизированная система программного обеспечения может оставаться в рамках установленных пределов, извлеченных из международного гуманитарного права», — сказал Аркин.

«Мы делаем это в очень узких пределах, — продолжал Аркин. «Мы не утверждаем, что такие системы заменяют человеческие моральные рассуждения в более широком смысле, но мы можем дать одни и те же рекомендации — в другом формате».

Конкретно, контекст этих инструкций продиктован нами. «Человеку даются ограничения, если хотите, для того, чтобы роботизированная система придерживалась», — сказал он. «Есть определенные запреты, которые должны быть удовлетворены», — сказал Аркин, чтобы «если он оказался рядом с культурными ценностями, которые не должны быть уничтожены, или если этот человек или мишень находится вблизи гражданского имущества, такого как мечеть или школа, инициируйте в этих обстоятельствах».

Эта «пограничная мораль», как утверждает Аркин, вряд ли будет достаточной для того, чтобы роботы и дроны заменили человеческих боевиков, и, конечно же, не в следующем году. Но в определенных сценариях, таких как очистка зданий или контр-снайперских операций, когда сопутствующий ущерб является обычным явлением, «поставьте робота в эту ситуацию и дайте ему подходящее руководство, чтобы, возможно, сделать лучше, в конечном счете, чем данный военный боец», — заключил Аркин.

В этих узко определенных операциях в операционной системе искусственного интеллекта возможно иметь трехзадачное чувство этики. «Ограничения жестко закодированы, — объяснил Аркин, — так же, как в Женевских конвенциях говорится, что приемлемо, а что неприемлемо».

Методы машинного обучения могут позволить будущим системам ИИ играть расширенную роль на поле боя, хотя сами они не без риска. «Есть некоторые случаи машинного обучения, которые, я считаю, не должны использоваться на поле битвы», — сказал Аркин. «Одним из них является целевое обозначение в поле, где система определяет, с кем и с чем она должна взаимодействовать в разных обстоятельствах». Этот уровень независимости не является тем, что мы в настоящее время этически или технологически готовы обрабатывать, и вместо этого она должна быть проверена сначала человеком в цикле «даже при потенциальном расходе миссии». Правила участия не меняются во время акции».

«Я считаю, что если мы будем достаточно глупы, чтобы продолжать убивать друг друга в войне, мы должны найти способы лучше защитить невоюющих. И я считаю, что это один из возможных способов сделать это», — заключил Аркин.

В то время как в 2017 году произошел рост взаимодействия между роботами и людьми в супермаркете, в следующем году необходимо позаботиться о том, чтобы избежать потенциальных конфликтов. «Эти роботы, поскольку они действуют в физическом пространстве, они будут сталкиваться с большим количеством человеческих тел», — говорит Мануэла Велосо, профессор в школе компьютерных наук Карнеги Меллона и руководитель отдела машинного обучения КМУ СКС. «Это похоже на автономные автомобили и то, как они будут взаимодействовать с людьми: роботы в конечном итоге должны будут принимать этические решения». Мы уже наблюдаем, как роботы вторгаются в производственные линии и центры выполнения. Это чувство осторожности будет особенно необходимо, когда дело доходит до принятия решения о том, кто побежит.

И, в отличие от военных применений, у гражданского общества есть много более тонких нюансов, определяющих социальные нравы, что делает методы машинного обучения более реалистичным. Велосо заявляет: «У машинного обучения гораздо более высокая вероятность обработки сложности спектра вещей, с которыми можно столкнуться», но что «это, вероятно, будет дополнением к обоим».

«У машинного обучения есть очень прекрасное обещание — в некотором смысле люди, они не так хороши с точки зрения объяснения всего, что им нужно, с точки зрения фактических правил и заявлений», — добавила Велосо. «Но они показывают, как они действуют на примере».

Как и Аркин, Велосо точно не думает, что мы будем раздавать роботам ключи от королевства в следующем году. «Системы ИИ в течение длительного времени должны быть помощниками, они должны быть рекомендателями», — сказала она. И мы уже стали свидетелями этой тенденции в 2017 году, когда цифровые помощники перешли с наших телефонов в наши дома. Это то, что скорее всего, продолжится и в новом году. «Эти системы искусственного интеллекта могут быть отличными другими людьми», — продолжила Велосо. «Великие другие умы, обработчики данных и советники». Просто, может быть, пока не давайте им оружие.

Люди также будут нести ответственность перед своими механическими коллегами, особенно с уважением относиться к ним. Теперь, независимо от того, роботы — особенно антропоморфные, такие как «Hanson Robotics» Sophia, которые дебютировали в этом году, — «заслуживают» уважения больше, чем ваш Keurig или Echo. Но социальные стандарты на приемлемое поведение постоянно находятся в движении, и это то, что нуждается в кодификации в 2018 году.

«Мы чувствуем ответственность, чтобы не навредить собакам и кошкам, — объяснила Велосо. «Я не думаю, что у [роботов] будут «чувства», как у собак или кошек. Я думаю, что люди, вероятно, привыкли ценить эту функцию, например, вы не собираетесь пинать свой холодильник, если он не работает должным образом».

«Я считаю, что если мы не сделаем этих роботов очень похожими на людей — с кожей и всем, — люди всегда будут относиться к ним как к машинам, — заключил Велосо. «Которые они есть».

Наши отношения с технологиями, особенно системами ИИ, которые приближаются (и в конечном итоге превышают) человеческий интеллект, меняются, нравится нам это или нет. Например, мы уже видели, что AlphaGo ИИ от Google в этом году неоднократно побеждала человеческих мастеров. Мы вряд ли увидим, как американские военные разворачивают автономные умные танки и боевые роботы типа «Терминатор» в течение следующих двух десятилетий, не говоря уже о 12 месяцах, считает Аркин.

Армия США уже обращается к промышленности за помощью в проектировании и развертывании машинного обучения и систем ИИ для противодействия внешним кибератакам, первые результаты которых начнутся в следующем году. В ближайшем будущем, помимо этого, мы, скорее всего, увидим шифер интеллектуальных технологий — от самонаводящихся вертолетов до печати на местах. Современное состояние искусственного интеллекта для битвы слишком затянуто в зачаточном состоянии для надежного развертывания таких технологий. Вместо этого изменение, скорее всего, будет вызвано гражданским обществом.

«Я думаю, что люди удивительны в том смысле, что они чрезвычайно открытые в отношении технологий», — сказала Велосо. «Посмотрите на мир, в котором мы живем, по сравнению с миром, в котором жили наши дедушки и бабушки. Объем технологий, в которых мы окружены, абсолютно увлекателен».

Надеюсь, мы будем достаточно умны, чтобы лучше относиться к завтрашним роботам, чем сегодня.

©  OneGadget