Илон Маск финансирует исследовательские группы, занимающиеся вопросом — безопасен ли искусственный интеллект

image
Рекламный постер для фильма «Терминатор: Генезис»

На прошлой неделе частная некоммерческая организация «Future of Life Institute» (FLI), расположенная в Бостоне (США), объявила о том, что получила значительный раунд финансирования в размере $10 миллионов. Основную часть пожертвования в $7 миллионов сделал Илон Маск, остальная часть денег была передана другой некоммерческой организацией Open Philanthropy Project. Основное занятие FLI состоит в поиске специализированных исследовательских групп, которые работают в области искусственного интеллекта, и их финансировании. Одна из целей, которую ставят перед учёными, получающими гранты от FLI, это разработка безопасного для человечества «компьютерного разума», который не привёл бы в будущем к глобальной катастрофе.
Миллионы долларов от главы SpaceX и группы Open Philanthropy Project разделят между собой 37 исследовательских групп, которые работают в хорошо известных университетах и хорошо себя зарекомендовали. BusinessInsider перечисляет некоторые из таких научных проектов. К примеру, объединённая группа из учёных университетов Беркли и Окфорда занята созданием алгоритмов, которые обучаются человеческим предпочтениям, что в дальнейшем помогло бы искусственному интеллекту вести себя «как человеку». Сотрудники университета Дьюка (США, Северная Каролина) ставят перед собой более амбициозную цель: они хотят разработать систему искусственного интеллекта, которая могла бы выносить решения с учётом «человеческой морали». В университете Денвера работают фактически над способами противодействия «Скайнету», занимаясь вопросами возможной утраты контроля над роботизированным вооружением.

В конце ноября прошлого года Илон Маск отметился в публичной дискуссии в интернете по поводу безопасности искусственного интеллекта. Судя по словам главы SpaceX, он с опаской относится к возможности компьютеров размышлять и прогнозирует появление «чего-то очень опасного в пределах 5–10 лет», подразумевая под этой опасностью как раз ИИ. По неизвестной причине комментарий Маска исчез через несколько минут после публикации, однако другие пользователи Edge.org успели его сохранить в виде скриншота. Пресс-секретарь Маска обещал в будущем представить официальное мнение своего шефа по этому вопросу, однако этого, судя по всему, пока что не произошло.

Нельзя не отметить, что Маск фактически придерживается мнения известного британского учёного Стивена Хокинга, который ещё ранее высказался следующим образом: «Все эти достижения [в разработке искусственного интеллекта] меркнут на фоне того, что нас ждет в ближайшие десятилетия. Успешное создание искусственного интеллекта станет самым большим событием в истории человечества. К сожалению, оно может оказаться последним, если мы не научимся избегать рисков». Хокинг считает, что исследованию безопасности ИИ посвящено слишком мало серьёзных научных работ и слишком мало существует научных организаций, которые могли бы этим заниматься. Интересно, что среди таких организаций Хокинг упомянул и FLI. Существует ли какая-либо связь между Стивеном Хокингом и Илоном Маском достоверно неизвестно.

Существует и альтернативная точка зрения от учёных, правда, не с таким громким именем как у профессора Хокинга. Они полагают, что вопрос выхода искусственного интеллекта из-под контроля — это скорее тема для научно-фантастических фильмов, чем для серьёзных опасений. Прочитать их контраргументы можно здесь.

© Geektimes