[Перевод] Объясняет ли великую тишину Вселенной развитие искусственного интеллекта?

Станет ли искусственный интеллект ASI, искусственным сверхинтеллектом? И если да, то сможет ли ASI стать Великим фильтром?

Станет ли искусственный интеллект ASI, искусственным сверхинтеллектом? И если да, то сможет ли ASI стать Великим фильтром?

Искусственный интеллект даёт о себе знать тысячами различных способов. Он помогает учёным разобраться в огромных массивах данных, помогает обнаружить финансовые махинации, управляет нашими автомобилями, предлагает нам музыку, а его чат-боты сводят нас с ума. И всё это только начинается.

Способны ли мы понять, как быстро будет развиваться ИИ? И если ответ «нет», то не создаём ли мы Великий фильтр?

Парадокс Ферми — это несоответствие между очевидной высокой вероятностью существования развитых цивилизаций и полным отсутствием доказательств того, что они существуют. Было предложено множество решений, почему существует это несоответствие. Одна из идей — «Великий фильтр».

Великий фильтр — это гипотетическое событие или ситуация, которая не позволяет разумной жизни стать межпланетной и межзвёздной и даже приводит к её гибели. Подумайте об изменении климата, ядерной войне, ударах астероидов, взрывах сверхновых, чуме или любых других вещах из галереи катаклизмов.

Или — как насчёт быстрого развития искусственного интеллекта?

В новой статье в журнале Acta Astronautica рассматривается идея о том, что искусственный интеллект становится искусственным сверхинтеллектом (ИСИ) и что ИСИ превращается в Великий фильтр. Статья называется «Является ли искусственный интеллект Великим фильтром, который делает развитые технические цивилизации редкими во Вселенной?». Автор — Майкл Гарретт с факультета физики и астрономии Манчестерского университета.

Некоторые считают, что Великий фильтр не позволяет технологическим видам вроде нашего стать многопланетными. Это плохо, потому что вид подвергается большему риску вымирания или стагнации, имея только один дом. По словам Гаррета, без запасной планеты вид находится в гонке со временем. «Предполагается, что такой фильтр возникает до того, как эти цивилизации смогут развить стабильное, многопланетное существование, что говорит о том, что типичная продолжительность жизни (L) технической цивилизации составляет менее 200 лет», — пишет Гарретт.

Если это правда, то это может объяснить, почему мы не обнаруживаем никаких техносигнатур или других свидетельств существования ВЗР (внеземных разумов). Что это говорит нам о нашей собственной технологической траектории? Если мы столкнулись с ограничением в 200 лет, и если в этом виноват ИСИ, то что нас ждёт? Гарретт подчёркивает »…критическую необходимость быстрого создания нормативной базы для развития ИИ на Земле и развития многопланетного общества для защиты от подобных экзистенциальных угроз».

Изображение нашей прекрасной Земли, сделанное космическим аппаратом Galileo в 1990 году. Нужен ли нам запасной дом?

Изображение нашей прекрасной Земли, сделанное космическим аппаратом Galileo в 1990 году. Нужен ли нам запасной дом?

Многие учёные и другие мыслители говорят, что мы стоим на пороге значительных преобразований. ИИ только начинает менять наши привычки, но большая часть преобразований происходит за кулисами. Похоже, что ИИ способен ликвидировать миллионы рабочих мест, а в паре с робототехникой преобразования кажутся практически неограниченными. Это довольно очевидная проблема.

Но есть и более глубокие, системные проблемы. Кто пишет алгоритмы? Будет ли ИИ каким-то образом дискриминировать людей? Почти наверняка. Подорвут ли конкурирующие алгоритмы сильные демократические общества? Останутся ли открытые общества открытыми? Начнёт ли ИИ принимать решения за нас, и кто будет нести за это ответственность?

Это расширяющееся дерево ветвящихся вопросов, не имеющих чёткой конечной точки.
Известно предупреждение Стивена Хокинга о том, что ИИ может покончить с человечеством, если начнёт развиваться самостоятельно. «Я боюсь, что ИИ может полностью заменить человека. Если люди разрабатывают компьютерные вирусы, то кто-то разработает ИИ, который будет улучшать и воспроизводить себя. Это будет новая форма жизни, которая превзойдёт человека», — заявил он журналу Wired в 2017 году. Когда ИИ сможет превзойти человека, он станет ИСИ.

Стивен Хокинг был одним из главных сторонников колонизации других миров, главным образом для того, чтобы человечество не вымерло. В более поздние годы Хокинг признал, что ИИ может стать угрозой вымирания.

Стивен Хокинг был одним из главных сторонников колонизации других миров, главным образом для того, чтобы человечество не вымерло. В более поздние годы Хокинг признал, что ИИ может стать угрозой вымирания.

Хокинг, возможно, один из самых узнаваемых людей, выступающих с предупреждениями об ИИ, но он далеко не единственный. Средства массовой информации полны обсуждений и предупреждений, наряду со статьями о работе, которую ИИ делает для нас. Самые тревожные предупреждения говорят о том, что ИИ может выйти из-под контроля. Некоторые люди считают это научной фантастикой, но не Гарретт.

«Опасения по поводу того, что искусственный сверхинтеллект в конечном итоге может стать неконтролируемым, считаются серьёзной проблемой — борьба с этой возможностью в ближайшие несколько лет является предметом растущих исследований для лидеров в этой области», — пишет Гарретт.

Если бы ИИ не давал никаких преимуществ, вопрос был бы гораздо проще. Но он даёт всевозможные преимущества, от улучшения медицинской визуализации и диагностики до повышения безопасности транспортных систем. Задача правительств состоит в том, чтобы позволить преимуществам процветать и в то же время ограничить ущерб. «Это особенно актуально в таких областях, как национальная безопасность и оборона, где ответственное и этичное развитие должно быть первостепенным», — пишет Гарретт.

Проблема в том, что мы и наши правительства не готовы к этому. Никогда не было ничего подобного ИИ, и как бы мы ни пытались его концептуализировать и понять траекторию его развития, мы остаёмся неготовыми. И если мы окажемся в таком положении, то в таком же положении окажется и любой другой биологический вид, который разработает ИИ. Появление ИИ, а затем и ИСИ может быть законом природы, что делает его подходящим кандидатом на Великий фильтр.

В этом и заключается риск, которому подвергается ИСИ: Она может перестать нуждаться в биологической жизни, которая её создала. «Достигнув технологической сингулярности, системы ASI быстро превзойдут биологический интеллект и будут развиваться темпами, полностью опережающими традиционные механизмы надзора, что приведёт к непредвиденным и непредусмотренным последствиям, которые вряд ли будут соответствовать биологическим интересам или этике», — объясняет Гарретт.

Как ИСИ может освободиться от назойливой биологической жизни, которая загоняет его в угол? Он может создать смертельный вирус, может помешать сельскохозяйственному производству и распределению продовольствия, может вывести из строя атомную электростанцию, а может начать войну. Мы не знаем, потому что всё это — неизведанная территория. Сотни лет назад картографы рисовали монстров на неизведанных регионах мира, и сейчас мы делаем примерно то же самое.

Это часть карты Carta Marina, датируемой 1539 годом. На ней изображены чудовища, скрывающиеся в неизвестных водах у берегов Скандинавии. Похожи ли страхи перед ИСИ на эти? Или ИСИ может быть Великим фильтром?

Это часть карты Carta Marina, датируемой 1539 годом. На ней изображены чудовища, скрывающиеся в неизвестных водах у берегов Скандинавии. Похожи ли страхи перед ИСИ на эти? Или ИСИ может быть Великим фильтром?

Если всё это звучит как унылая неизбежность, то Гарретт утверждает, что это не так.

Его анализ пока основан на том, что ИСИ и люди занимают одно и то же пространство. Но если мы сможем достичь статуса мультипланетарной планеты, то перспективы изменятся. «Например, многопланетный биологический вид сможет воспользоваться независимым опытом, полученным на разных планетах, диверсифицировать свои стратегии выживания и, возможно, избежать моментального краха, с которым сталкивается цивилизация, привязанная к планете», — пишет Гарретт.

Если мы сможем распределить риск по нескольким планетам вокруг нескольких звёзд, мы сможем защитить себя от худших возможных исходов ИСИ. «Такая распределённая модель существования повышает устойчивость биологической цивилизации к катастрофам, вызванным ИИ, за счёт создания избыточности», — пишет он.

Если одна из планет или аванпостов, которые займут будущие люди, не переживёт технологическую сингулярность ИСИ, другие смогут выжить. И они будут учиться на этом.

Иллюстрация художника, изображающая посадку звездолёта SpaceX на Марс. Если мы сможем стать многопланетным видом, угроза АСИ уменьшится.

Иллюстрация художника, изображающая посадку звездолёта SpaceX на Марс. Если мы сможем стать многопланетным видом, угроза АСИ уменьшится.

Многопланетный статус может не только помочь нам пережить ИСИ. Он может помочь нам взять над ним верх. Гарретт представляет себе ситуации, в которых мы сможем более тщательно экспериментировать с ИИ и при этом держать его в узде. Представьте себе ИИ на изолированном астероиде или карликовой планете, выполняющий наши приказы без доступа к ресурсам, необходимым для того, чтобы выбраться из своей тюрьмы. «Это позволяет создать изолированную среду, в которой можно изучать эффекты продвинутого ИИ без непосредственного риска глобального уничтожения», — пишет Гарретт.

Но вот в чём загвоздка. Развитие ИИ идёт ускоренными темпами, а наши попытки стать многопланетными — нет. «Несоответствие между быстрым развитием ИИ и более медленным прогрессом в космических технологиях разительно», — пишет Гарретт.

Разница в том, что ИИ — вычислительный и информационный объект, а космические путешествия содержат множество физических препятствий, которые мы пока не знаем, как преодолеть. Наша собственная биологическая природа сдерживает космические путешествия, но никакие подобные препятствия не сдерживают ИИ. «В то время как ИИ теоретически может совершенствовать свои возможности практически без физических ограничений, — пишет Гарретт, — космические путешествия должны бороться с энергетическими ограничениями, границами материаловедения и суровыми реалиями космической среды».

Пока что ИИ действует в рамках установленных нами ограничений. Но так может быть не всегда. Мы не знаем, когда ИИ может стать ИСИ и сможет ли вообще. Но мы не можем игнорировать такую возможность. Из этого следуют два взаимосвязанных вывода.

Если Гарретт прав, то человечество должно усерднее работать над космическими путешествиями. Это может показаться надуманным, но думающие люди понимают, что это правда: Земля не будет обитаема вечно. Человечество погибнет здесь по нашей вине или по вине природы, если мы не будем расширять своё присутствие в космосе. Оценка Гаррета в 200 лет лишь подчёркивает важность этого. Но возрождённый акцент на полётах к Луне и Марсу даёт нам некоторую надежду.

Программа ''Артемида'' — это возобновление усилий по созданию присутствия на Луне. После этого мы сможем посетить Марс. Может, это наши первые шаги к становлению многопланетной цивилизации?

Программа ''Артемида'' — это возобновление усилий по созданию присутствия на Луне. После этого мы сможем посетить Марс. Может, это наши первые шаги к становлению многопланетной цивилизации?

Второй вывод касается законодательного регулирования и управления ИИ, что является сложной задачей в мире, где психопаты могут получить контроль над целыми странами и развязать войну. «Хотя заинтересованные стороны, политики, отдельные эксперты и их правительства уже предупреждают о необходимости регулирования, создание нормативной базы, приемлемой для всего мира, будет непростой задачей», — пишет Гарретт. Непростой — это не то слово. Междоусобные разборки человечества делают всё это ещё менее управляемым. Кроме того, как бы быстро мы ни разрабатывали руководящие принципы, ИСИ может меняться ещё быстрее.

«Без практического регулирования есть все основания полагать, что ИИ может представлять собой серьёзную угрозу для будущего развития не только нашей технической цивилизации, но и всех технических цивилизаций», — пишет Гарретт.

Это Генеральная Ассамблея Организации Объединённых Наций. Достаточно ли мы едины, чтобы сдержать ИИ?

Это Генеральная Ассамблея Организации Объединённых Наций. Достаточно ли мы едины, чтобы сдержать ИИ?

Многие надежды и мечты человечества кристаллизуются вокруг парадокса Ферми и Великого фильтра. Существуют ли другие цивилизации? Находимся ли мы в той же ситуации, что и другие разумные существа? Покинет ли наш вид Землю? Сможем ли мы справиться с многочисленными трудностями, которые стоят перед нами? Сможем ли мы выжить?

Если да, то всё может свестись к тому, что может показаться скучным и будничным: к обсуждению законодательства.

«Сохранение разумной и сознательной жизни во Вселенной может зависеть от своевременного и эффективного применения таких международных мер регулирования и технологических усилий», — пишет Гарретт.

© Habrahabr.ru