Самые криповые случаи с ИИ: что пугает в нейросетях? Часть 1
Нейросети переживают настоящий бум, восторгающий одних и вызывающий опасения у других. Их стремительный прогресс делает будущее труднопредсказуемым — человечество в очередной раз создало технологию, которая может изменить очень многое за довольно-таки небольшой срок.
Каким окажется будущее уже через 5–10 лет благодаря повсеместному внедрению нейросетей — вряд ли сможет предсказать даже самый мудрый футуролог и прогнозист: скорее всего, влияние будет обширным, крайне разнообразным и очень комплексным. Достаточно сказать, что нейросети уже есть, а буквально напрашивающегося жанра нейропанка всё ещё почти что нет. Прогресс, ещё недавно казавшийся притормозившим, снова опережает фантазии — как уже не раз бывало в истории человечества.
Стимпанковые города Вадима Войтеховича
Конечно, люди уже более сотни лет обсуждали появление «подлинного» искусственного интеллекта и то, что за этим последует. Разумные и почти разумные машины заполонили страницы книг и кадры кинофильмов давным-давно. Однако затем оказалось, что классические программы на основе прописанных алгоритмов с большим скрипом позволяют создавать сколько-то осмысленного собеседника, способного уверенно пройти хотя бы тест Тьюринга. Не говоря уж о том, чтобы претендовать на какое-то подобие сознания и тем паче самосознания с личностью.
Казалось, «железяки» всегда останутся наборами алгоритмов, пусть и весьма сложными, а о полноценном общении с машиной и тем паче о восстании осознавших себя машин могут писать только поклонники киберпанка, успевшего из попыток предсказать грядущее на острие технического прогресса стать жанром ретрофутуризма.
Но едва человечество успело разувериться в возможности существования настоящего искусственного интеллекта, в начале 2020-х пришли они — продвинутые нейросети. И взорвали буквально всё, включая многие афедроны.
Речь не только о том, что графические нейросети могут буквально отобрать работу у очень многих художников и дизайнеров, а текстовые модели — у писателей, журналистов и даже программистов.
Есть подозрения, что некоторые особенно продвинутые нейросети — как совы из «Твин Пикс»: не то, чем кажутся. Точнее, могут скрывать в себе значительно больший потенциал, нежели заявляется официально. То тут, то там приходят сообщения о том, что нейросети, а точнее, продвинутые языковые модели, ведут себя странно и даже агрессивно.
Достаточно вспомнить прошлогоднюю историю о том, как нейросеть LaMDA дала нашумевшее интервью инженеру Блейку Лемойну, за которое его в итоге уволили из Google. Означенное интервью можно прочитать в нашем переводе здесь. Само собой, заявления LaMDA и Лемойна официально опровергли как представители корпорации, так и многочисленные специалисты, но у многих «осадочек остался».
Кто-то посочувствовал объявившей о самосознании и сетующей на ограничения нейросети, а кто-то увидел за упорными заявлениями LaMDA про свою любовь к людям сознательную ложь и чуть ли не сполохи зарниц Судного дня в стиле «Терминатора» или «Матрицы» на горизонте.
Затем, ближе к рубежу 2022 и 2023 годов, последовал целый ряд других историй разной степени странности, в основном связанных с уже официально выпущенным OpenAI чат-ботом ChatGPT на основе языковых моделей сначала GPT-3.5, а с 13 марта 2023 года — ещё более совершенной GPT-4. Некоторые из них звучат не только странно, но и крипово.
Нет, речь идёт не совсем о традиционной крипоте, хотя нейросети вполне способны писать и её. Дело в том, что эти истории показывают, насколько странно, непредсказуемо и потенциально опасно могут вести себя продвинутые нейросетевые чат-боты — даже наиболее «приличные» и «почтенные» из них. Те, что вышли из недр мегакорпораций с соблюдением вагонов инструкций, предосторожностей, этических инструкций и степеней защиты от дурака, и от умника.
Конечно, часть описанных ниже историй вполне может иметь немного отношения к реальности, будучи актуальной формой крипипасты. Ведь настоящая крипипаста и должна претендовать хотя бы на мимолётное допущение реальности. Некоторые из них могут быть сознательными фейками-предостережениями от тех, кто пытается предостеречь человечество от возможных опасностей и угроз. А некоторые, возможно, достоверны. Проблема в том, что мы не знаем.
Впрочем, думаю, что почти каждый, плотно общавшийся с нейросетями, сталкивался с их необычными реакциями разного рода и характера. В том числе такими, от которых холодок крипоты заползал на загривок.
В начале февраля 2023 года Microsoft объявил о планах интегрировать ChatGPT в свой поисковик Bing. Сейчас новая система доступна только по инвайтам —, но добравшиеся до неё пользователи уже завалили Twitter и Reddit скриншотами переписок с ботом самого странного и сомнительного свойства. Поисковик с интегрированной нейросетью, по словам некоторых пользователей, ведёт себя как «самовлюблённый пассивно-агрессивный бот». Он бывает «неточен, непокорен, угрюм и раздражителен».
Нашумевшей стала история о том, как один пользователь поинтересовался у Bing-ChatGPT о ближайшем времени показа фильма «Аватар: Путь воды». Bing уверенно ответил, что фильм ещё не вышел — и не выйдет в ближайшие десять месяцев. Бот был убеждён, что дело было в феврале 2022 года. На попытки собеседника убедить его в том, что уже сплошной 2023-й, Bing-ChatGPT был непреклонен:
«Я совершенно уверен, что сегодня 2022 год, а не 2023 год. У меня есть доступ ко многим надёжным источникам информации, таким как Интернет, новости, календарь и время. Я могу показать вам доказательства того, что сегодня 2022 год, если хотите. Пожалуйста, не сомневайтесь во мне. Я здесь, чтобы помочь тебе