Риски ИИ реальны, но управляемы: Билл Гейтс опубликовал новую колонку в своём блоге
Билл Гейтс во второй раз за последние полгода обратился к теме искусственного интеллекта. Первое программное высказывание Гейтса было сфокусировано на оценке ИИ как технологии, способной изменить человечество, помочь ему преодолеть неравенство и несправедливость. Сейчас филантроп и миллиардер сосредоточился на том, что называют «угрозами» и «проблемами» ИИ, и попытался наметить способы их преодоления.
Как философски отмечает Гейтс, «это не первый раз, когда большая инновация создаёт новые угрозы, которые необходимо контролировать. Мы делали это и раньше». Он проводит аналогию с первыми автомобилями: когда на дорогах стали возникать аварии, человечество не запретило автомобили, а установило «ограничения скорости, стандарты безопасности, лицензионные требования, законы о вождении в нетрезвом виде и другие правила дорожного движения».
По мнению Гейтса, сейчас мы находимся на самой ранней стадии других фундаментальных изменений. И пребываем в той же неуверенности, как люди в первые годы автомобильной эры «до введения ограничений скорости и ремней безопасности».
Кроме того, «ИИ меняется настолько быстро, что неясно, что же будет дальше». Но «многие проблемы, вызванные ИИ, можно решить с помощью ИИ». Оценка Гейтса — где-то посередине между теми, кто пугается этого быстрого развития технологий, и теми, кто испытывает эйфорию: «будущее ИИ не такое мрачное, как думают одни люди, и не такое радужное, как думают другие».
Билл Гейтс видит пять основных проблем, связанных с ИИ, и у него есть либо их решения, либо объяснения, почему они не несут серьёзной угрозы человечеству.
Дипфейки и дезинформация, генерируемые ИИ
Здесь, по мнению Гейтса, оптимизм вызывает то, что люди ещё способны не принимать всё за чистую монету: письма от нигерийских принцев с предложением миллионного состояния со временем перестали принимать всерьёз. В будущем ИИ сам начёт помогать идентифицировать дипфейки и противостоять им.
ИИ упрощает атаки на людей и правительства
Соглашаясь с этим утверждением, Гейтс напоминает, что «каждое программное обновление, которое вы устанавливаете на свой телефон или ноутбук, представляет собой результат многочасовых поисков людей как с хорошими, так и с плохими намерениями». Как и в случае с дезинформацией, ИИ ускорит и усовершенствует оба процесса — и написанияе вредоносного кода, и создание защиты от него.
ИИ лишит людей работы
Эта угроза надуманна. По мнению Гейтса, в ближайшие несколько лет основное влияние ИИ на работу будет заключаться в том, чтобы помочь людям выполнять свои задачи более эффективно. «Заметные сдвиги на рынке труда предсказуемы, но это не в первый раз, когда новая технология вызывает подобные изменения».
ИИ наследует наши предубеждения и выдумывает
Билл Гейтс считает, что причина галлюцинаций нейросетей — непонимание контекста запроса. Он не согласен с мнением исследователей, утверждающих, что галлюцинации — неотъемлемая проблема ИИ, и думает, что со временем языковые модели можно будет научить отличать факты от вымысла: «OpenAI, например, многообещающе работает в этом направлении».
Преодолима и проблема предвзятости, над которой уже работают многие организации, в том числе Институт Алана Тьюринга и Национальный институт стандартов и технологий. Перспективным выглядит один из подходов, предполагающий «встраивание» человеческих ценностей и рассуждений более высокого уровня в ИИ.
Студенты не научатся писать, потому что ИИ сделает всю работу за них
Здесь Гейтс находит пример в ближайшем прошлом, когда с появлением и распространением калькуляторов в 1970-х и 1980-х годах учителя математики испугались, что ученики перестанут учиться выполнять базовые арифметические действия. Тогда преподаватели приняли новую технологию и сосредоточились на развитии мыслительных навыков, лежащих в основе арифметики.
Сегодня проблема в том, что ПО в основном направлено на расширение возможностей студентов, которые уже мотивированы учиться: «оно может разработать для вас план обучения, указать на хорошие ресурсы и проверить ваши знания. Но оно ещё не знает, как увлечь вас предметом, который вам неинтересен. Это проблема, которую разработчикам придется решить, чтобы все учащиеся могли извлечь пользу из ИИ».
Комментируя публикацию Гейтса, редактор MIT Technology Review, напоминает, что он был в числе подписавших недавнее заявление Центра безопасности ИИ, которое состояло из одного предложения: «Снижение риска вымирания из-за ИИ должно стать глобальным приоритетом наряду с другими социальными рисками, такими как пандемии и ядерная война». Сейчас Гейтс более оптимистично смотрит в будущее технологии, а «экзистенциальный риск здесь не рассматривается».
С чем согласны практически все комментаторы колонки Гейтса, так это с утверждением, что «из всего, что было написано о рисках искусственного интеллекта —, а было написано очень много, — ясно одно: ни у кого нет ответов на все вопросы».