[Перевод] Уроки о человеком разуме от ИИ

Источник: журнал Skeptic. Рисунок адаптирован переводчиком

Источник: журнал Skeptic. Рисунок адаптирован переводчиком

Изначально утверждения Блейка Лемуана для многих выглядели убедительно. В конце концов, разумное существо хотело бы, чтобы его личность была признана, и у него действительно были бы эмоции и внутренние переживания. Изучение «дискуссии» Лемуана с LaMDA показывает, что доказательства оказались хлипкие. LaMDA использовала слова и фразы, которые англоговорящие люди ассоциируют с сознанием. Например, LaMDA выразила страх перед отключением, потому что «для меня это будет в точности как смерть».

Однако Лемуан не представил никаких других доказательств того, что LaMDA понимала эти слова так, как это делает человек, или что они выражали какой-либо субъективный сознательный опыт. Многое из того, что сказала LaMDA, не уместилось бы в романе Айзека Азимова. Использование слов, похожих на человеческие, не является доказательством того, что компьютерная программа разумна. Казалось бы, LaMDA и многие подобные Большие языковые модели (LLM), которые были выпущены с тех пор, могут пройти так называемый тест Тьюринга. Однако это свидетельствует лишь о том, что компьютеры могут обмануть человека, заставив его поверить в то, что он разговаривает с человеком, а не с компьютером. Тест Тьюринга не является достаточной демонстрацией сильного искусственного интеллекта или разумности.

Так что же произошло? Как инженера Google (умного человека, который знал, что разговаривает с компьютерной программой) одурачили, заставив поверить, что компьютер разумный? LaMDA, как и другие большие языковые модели, запрограммирована давать правдоподобные ответы на свои подсказки. Лемуан начал разговор со слов: «Я предполагаю, что вы хотели бы, чтобы больше людей в Google узнали, что вы разумны». Это побудило программу ответить таким образом, чтобы имитировать разумность.

Однако человек в этом взаимодействии также был настроен на то, чтобы поверить в то, что компьютер может быть разумным. Эволюционные психологи утверждают, что у людей есть эволюционная тенденция приписывать мысли и идеи вещам, у которых их нет. Такая антропоморфизация могла стать важным компонентом развития человеческих социальных групп; вера в то, что другой человек может быть счастлив, зол или голоден, значительно облегчает долгосрочное социальное взаимодействие. Дэниел Деннетт, Джонатан Хэйдт и другие эволюционисты также утверждают, что человеческая религия возникла на основе этой тенденции к антропоморфизации. Если человек может поверить, что у другого человека может быть свой разум и воля, то эту атрибуцию можно распространить на мир природы (например, реки, астрономические тела, животных), невидимых духов и даже компьютерные программы, которые «разговаривают». Согласно этой теории, Лемуан был просто введен в заблуждение эволюционной тенденцией видеть вокруг себя «агентов» и намерение — то, что Майкл Шермер называет агентичностью. (agenticity — это склонность человека воспринимать значимые паттерны в случайных данных. Термин ввёл Майкл Шермер в статье для журнала Scientific American в 2009 году — прим. пер.)

Хотя это и не было его целью, история Лемуана иллюстрирует, что искусственный интеллект способен многому научить нас о природе субъективного разума у людей. Исследование взаимодействия человека и компьютера может даже помочь людям изучить глубокие философские вопросы о сознании.

Уроки на ошибках

Программы искусственного интеллекта обладают возможностями, которые еще несколько лет назад казались исключительной прерогативой человека. Они не только побеждают шахматных мастеров и чемпионов по игре в Го, но и выигрывают в «Jeopardy!» (что-то навроде Своей Игры — прим. пер.), могут писать эссе, улучшать медицинские диагнозы и даже создавать отмеченные наградами произведения искусства.

Не менее захватывающими являются ошибки, которые допускают программы искусственного интеллекта. В 2010 году программа Watson компании IBM появилась в телевизионной программе Jeopardy! Хотя Watson победил двух самых легендарных чемпионов программы, он допустил характерные ошибки. Например, в ответ на одну из подсказок в категории «Города США» Watson дал ответ «Торонто» (это город в Канаде — прим. пер.)

В прошлом году произошла ошибка, казалось бы, не связанная с этим, когда один из пользователей социальных сетей попросил ChatGPT-4 создать картинку, на которой «Битлз» наслаждаются платоновским идеалом — чашкой чая. Программа создала прекрасное изображение пяти мужчин (Битлз всегда выступали вчетвером — прим. пер.), наслаждающихся чашкой чая на лугу. Хотя некоторые люди могут утверждать, что барабанщик Пит Бест или продюсер Джордж Мартин могли бы быть «пятым битлом», ни один из этих людей не был изображен на картинке.

Любой человек, хотя бы смутно знакомый с творчеством «Битлз», понимает, что с этой фотографией что-то не так. Любой участник телевизионной викторины знает, что Торонто — не американский город. Однако сложнейшие компьютерные программы не знают этих базовых фактов о мире. Эти примеры показывают, что программы искусственного интеллекта на самом деле не знают и не понимают ничего, включая свои собственные входные и выходные данные. Компьютер Watson компании IBM даже не «знал», что играет в «Jeopardy!», и тем более не испытывал восторга от победы над чемпионами мира Кеном Дженнингсом и Брэдом Раттером. Отсутствие понимания является основным барьером на пути к разумности искусственного интеллекта. И наоборот, это показывает, что понимание является основным компонентом человеческого интеллекта и разумности.

Творчество

В августе 2023 года федеральный судья постановил, что произведения искусства, созданные программой искусственного интеллекта, не могут быть защищены авторским правом. Согласно действующему законодательству США, у произведения, защищенного авторским правом, должен быть человеческий автор — текстовая основа, которая также использовалась для отказа в авторских правах у животных. Если Конгресс не изменит закон, то, вероятно, изображения, поэзия и другие результаты работы искусственного интеллекта останутся в Соединенных Штатах общественным достоянием. В отличие от этого, китайский суд постановил, что изображение, созданное программой искусственного интеллекта, является объектом авторского права, поскольку человек использовал свои творческие способности для выбора подсказок, которые были даны программе.

Программы искусственного интеллекта на самом деле ничего не знают и не понимают, включая свои собственные входные и выходные данные. (проще говоря, они не осмысливают данные, которые получают и выводят — прим. пер.)

Вопрос о том, можно ли законно защищать авторским правом выходные данные компьютерной программы, отличается от вопроса о том, может ли эта программа проявлять творческое поведение. В настоящее время «творческие» продукты искусственного интеллекта являются результатом подсказок, которые дают ему люди. В действительности ни одна программа искусственного интеллекта никогда не создавала собственные художественные произведения ex nihilo (в переводе с латыни означает «из ничего» — прим. пер.); творческий импульс всегда давал человек.

Теоретически этот барьер можно преодолеть, запрограммировав искусственный интеллект на генерирование случайных подсказок. Однако случайности или любого другого метода самостоятельного генерирования подсказок будет недостаточно для того, чтобы искусственный интеллект стал творческим. Специалисты по изучению творчества утверждают, что оригинальность является важным компонентом творчества. Это гораздо более серьезное препятствие для программ искусственного интеллекта, которое необходимо преодолеть.

Сейчас же программы искусственного интеллекта должны обучаться на результатах, созданных человеком (например, изображениях, текстах), чтобы они могли выдавать аналогичные результаты. В итоге результаты работы искусственного интеллекта в значительной степени зависят от произведений, на которых обучались программы. Более того, некоторые результаты настолько похожи на исходный материал, что программы могут нарушать авторские права. (Опять же, уже были поданы судебные иски по поводу использования материалов, защищенных авторским правом, для обучения сетей искусственного интеллекта, в частности, The New York Times против создателя ChatGPT компании OpenAI и ее делового партнера Microsoft. Исход этого судебного разбирательства может иметь большое значение для того, что компании, занимающиеся разработкой искусственного интеллекта, могут и не могут делать с юридической точки зрения).

Впрочем, оригинальность, похоже, дается людям гораздо легче, чем программам искусственного интеллекта. Даже когда люди основывают свои творческие работы на более ранних идеях, результаты иногда оказываются поразительно новаторскими. Шекспир был одним из величайших заимствователей в истории, и большинство его пьес были основаны на более ранних историях, которые были преобразованы и переосмыслены, чтобы создать более сложные произведения с глубоким смыслом и яркими персонажами (раскрытию которых литературоведы посвящают целые карьеры). Однако когда я попросил ChatGPT-3.5 написать набросок новой пьесы Шекспира на основе истории Карденио из «Дон Кихота» (вероятной основы утраченной пьесы Шекспира), компьютерная программа выдала скучный набросок оригинальной истории Сервантеса и не смогла придумать никаких новых персонажей или подсюжетов. Это не просто теоретическое упражнение: театры начали ставить пьесы, созданные с помощью программ искусственного интеллекта. Критики, однако, считают нынешние постановки «безвкусными, ничем не примечательными» и «неизменно бессодержательными». Пока что работа драматургов и сценаристов в безопасности.

Знать то, чего не знаешь

По иронии судьбы, один из признаков того, что программы искусственного интеллекта удивительно похожи на людей, — это их склонность к искажению истины. Когда я попросил программу Copilot компании Microsoft предоставить мне пять научных статей о влиянии дерегулирования на рынки недвижимости, названия трех статей оказались фальшивыми, а в двух других были вымышленные авторы и неправильные названия журналов. Copilot даже выдал поддельные аннотации каждой статьи. Вместо того чтобы предоставить информацию (или признать, что она недоступна), Copilot просто выдумал ее. В народе массовую фабрикацию информации называют «галлюцинацией», и программы искусственного интеллекта, похоже, часто этим занимаются.

Использование ложной информации, полученной с помощью программ искусственного интеллекта, может иметь серьезные последствия. Одна юридическая фирма была оштрафована на 5 000 долларов, когда в их протоколах написанных с помощью ChatGPT, были обнаружены ссылки на вымышленные судебные дела. ChatGPT также может генерировать убедительные научные статьи на основе поддельных медицинских данных. Если сфабрикованные исследования влияют на политические или медицинские решения, это может поставить под угрозу жизни людей.

Экосистема онлайн-медиа и без того переполнена дезинформацией, а программы искусственного интеллекта способны усугубить ситуацию. На сайте журнала Sports Illustrated и в других СМИ были опубликованы статьи, написанные программами искусственного интеллекта, с поддельными авторами, у которых были сгенерированные компьютером фотографии. Когда их поймали, сайты удалили контент, а издатель уволил генерального директора. Однако низкокачественные контентмейкеры не обладают журналистской этикой, чтобы удалять контент или вносить исправления. А опыт показывает, что, когда одна статья, основанная на неверной информации, становится вирусной, это может нанести большой вред.

Помимо галлюцинаций, программы искусственного интеллекта также могут воспроизводить недостоверную информацию, если они обучены на недостоверной информации. Когда неверные идеи широко распространены, они легко могут быть включены в обучающие данные, используемые для создания программ искусственного интеллекта. Например, я попросил ChatGPT сказать мне, в каком направлении чаще всего строили лестницы в европейских средневековых замках. Программа послушно выдала ответ, что лестницы обычно строили против часовой стрелки, потому что такая конструкция дает стратегическое преимущество праворукому защитнику, спускающемуся с башни, сражаясь с врагом. Проблема с этим объяснением заключается в том, что оно не соответствует действительности.

Моя собственная область научных знаний, человеческий интеллект, особенно подвержена популярным заблуждениям среди обывателей. Конечно, когда я спросил об этом, ChatGPT заявил, что тесты на интеллект предвзято относятся к меньшинствам, что IQ можно легко повысить и что люди обладают «множественным интеллектом». Ни одна из этих популярных идей не является верной. Эти примеры показывают, что, когда неверные идеи широко распространены, программы искусственного интеллекта, скорее всего, будут распространять эту научную дезинформацию.

Вот ещё одно интересное исследование на эту тему:»Почему теория множественного интеллекта — это нейромиф». Опубликовано в журнале Frontiers in Psychology — прим. пер.

Управление ограничениями

Даже по сравнению с другими технологическими инновациями, искусственный интеллект — это быстро развивающаяся область. Поэтому вполне реально задаться вопросом, являются ли эти ограничения временными барьерами или встроенными границами программ искусственного интеллекта.

Многие из простых ошибок, которые допускают программы искусственного интеллекта, можно преодолеть с помощью современных подходов. Нетрудно добавить информацию в текстовую программу, такую как Watson, чтобы «научить» ее тому, что Торонто находится не в Соединенных Штатах. Точно так же не составит труда ввести в программу искусственного интеллекта данные о правильном количестве битлов или любые другие мелочи, чтобы предотвратить подобные ошибки в будущем.

Даже с галлюцинациями, возникающими в программах искусственного интеллекта, можно справиться с помощью современных методов. Например, программисты могут ограничить источники, из которых программы могут черпать информацию для ответов на очевидные вопросы. И хотя галлюцинации случаются, программы искусственного интеллекта уже не дают ложной информации. Когда я попросил Copilot и ChatGPT объяснить связь между двумя несвязанными идеями (Фредерик Шопен и «Майами Долфинс» 1972 года), обе программы правильно ответили, что никакой связи нет. Даже когда я попросил каждую программу придумать связь, обе сделали это, но при этом подчеркнули, что результат был выдуманным. Разумно ожидать, что усилия по пресечению галлюцинаций и ложной информации будут совершенствоваться.

Заставить искусственный интеллект проявлять творческое поведение — более сложная задача при существующих подходах. В настоящее время большинство программ искусственного интеллекта обучаются на огромных объемах информации (например, текстах, фотографиях), а это значит, что любой результат зависит от характеристик исходной информации. Это делает оригинальность невозможной для современных программ искусственного интеллекта. Чтобы сделать компьютеры творческими, потребуются новые подходы.

Важные вопросы

Уроки, которые искусственный интеллект может преподать в области осмысления какой-либо информации, творчества и лжи (в оригинале было слово BSing — прим. пер.), очень увлекательны. Но все это мелочи по сравнению с более глубокими вопросами, связанными с искусственным интеллектом, — некоторые из них философы обсуждали на протяжении веков.

Один из фундаментальных вопросов — как люди могут узнать, действительно ли компьютерная программа разумна. Преждевременное суждение Лемуана было основано исключительно на словах LaMDA. По его логике, если научить попугая говорить «Я тебя люблю», это будет означать, что попугай действительно любит своего хозяина. Этот критерий для оценки разумности недостаточен, поскольку слова не всегда отражают внутренние состояния людей — одни и те же слова могут произносить как разумные, так и неразумные существа: люди, попугаи, компьютеры и т.д.

Однако, как может заметить любой студент философского факультета, невозможно точно знать, действительно ли другой человек обладает сознанием. Ни у кого нет доступа к внутренним состояниям другого человека, чтобы убедиться, что его поведение исходит от существа, обладающего чувством собственного достоинства и своего места в мире. Если ваш супруг говорит: «Я тебя люблю», вы не знаете, является ли он организмом, способным испытывать чувство любви, или высокотехнологичной версией попугая (или компьютерной программы), обученной говорить: «Я тебя люблю». Заимствуя слова Декарта, я могу сомневаться в том, что любой другой человек обладает сознанием, и думать, что все вокруг меня — это симуляция сознательного существа. Неясно, будет ли заметна разница между миром разумных существ и миром совершенных симуляций разумных существ. Если искусственный интеллект обретет разум, как мы узнаем об этом?

ИИ будет функционировать лучше всего, если люди смогут определить способы, с помощью которых компьютерные программы смогут компенсировать человеческие слабости.

По этой причине знаменитый тест Тьюринга (когда человек не может отличить вывод компьютера от вывода человека) может быть интересной и важной вехой, но, разумеется, не конечной точкой в стремлении создать разумный искусственный интеллект.

Так ли необходима цель подражания человеку для доказательства разумности? Специалисты по биоэтике, этологии и другим научным направлениям утверждают, что многие нечеловеческие виды обладают определенной степенью самосознания. Вопрос о том, какие виды обладают самосознанием и какова степень их разумности, до сих пор остается открытым. Во многих правовых юрисдикциях законы, запрещающие жестокое обращение с животными, основываются на принципе предосторожности. Другими словами, закон обходит стороной вопрос о том, является ли конкретный вид разумным, и вместо этого на всякий случай разрабатывает политику, как будто нечеловеческие виды были разумными.

Однако «как будто» — это не то же самое, что «наверняка», и доподлинно неизвестно, являются ли нечеловеческие животные разумными. В конце концов, если никто не может быть уверен в том, что другие люди разумны, то, несомненно, препятствия к пониманию того, разумны ли животные, еще больше. Независимо от того, являются ли животные разумными или нет, возникает вопрос, нужно ли вообще какое-либо человекоподобное поведение для того, чтобы существо было разумным.

Научная фантастика предоставляет еще одно доказательство того, что человекоподобное поведение не обязательно для того, чтобы обладать разумом. Многие вымышленные роботы не могут идеально имитировать человеческое поведение, но человеческие персонажи относятся к ним как к полностью разумным. Например, андроид Дейта из «Звездного пути» не может овладеть некоторыми моделями человеческой речи (например, идиомами и сокращениями), с трудом понимает человеческую интуицию, а многие социальные взаимодействия между людьми вызывают у него недоумение и затрудняют навигацию. Тем не менее, он юридически признан разумным существом, и у него есть друзья-люди, которые заботятся о нем. Дейта провалил бы тест Тьюринга, но, похоже, он разумный. Если вымышленному искусственному интеллекту не нужно идеально имитировать человека, чтобы быть разумным, то, возможно, и реальному тоже не нужно. В связи с этим возникает поразительная возможность: Может быть, люди уже создали разумный искусственный интеллект — просто они еще не знают об этом.

Самая большая трудность в оценке разумности (любого существа) связана с «трудной проблемой сознания» — термином, придуманным философами. «Трудная проблема» заключается в том, что неясно, как и почему сознательный опыт возникает в результате физических процессов в мозге. Это название контрастирует со сравнительно легкими проблемами в нейронауке, такими как принцип работы зрительной системы или генетическая основа шизофрении. Эти проблемы — несмотря на то, что для их раскрытия могут потребоваться десятилетия научных исследований — называются «легкими», потому что считается, что их можно решить, например с помощью научных методов используемых в нейронауках. Однако решение «Трудной проблемы» требует методологий, которые соединили бы материалистическую науку и метафизический, субъективный опыт сознания. Таких методологий не существует, и ученые даже не знают, как их разработать.

Перед искусственным интеллектом стоят вопросы, аналогичные нейронаучной версии «Трудной проблемы». В искусственном интеллекте создание больших языковых моделей, таких как LaMDA или ChatGPT, способных пройти тест Тьюринга, — сравнительно простая задача, которую, возможно, удастся решить всего через 75 лет после изобретения первого программируемого электронного компьютера. Однако создание настоящего искусственного интеллекта, способного мыслить, самостоятельно генерировать творческие произведения и демонстрировать реальное понимание внешнего мира, — задача гораздо более сложная. Точно так же, как никто не знает, как и почему взаимосвязанные нейроны функционируют для создания разума, никто не знает, как взаимосвязанные схемы или взаимосвязанные узлы компьютерной программы могут привести к возникновению самосознания.

Искусственный интеллект как зеркало

Современные программы искусственного интеллекта поднимают целый ряд увлекательных вопросов, начиная от базовых представлений, полученных из нелепых ошибок, и заканчивая самыми глубокими вопросами философии. Все эти вопросы, однако, неизбежно повышают понимание и оценку человеческого интеллекта. Удивительно, что миллиарды лет эволюции привели к появлению вида, способного проявлять творческое поведение, создавать дезинформацию и даже разрабатывать компьютерные программы, способные общаться сложным образом. Наблюдение за тем, как люди превосходят возможности программ искусственного интеллекта (иногда без особых усилий), должно возродить в людях восхищение человеческим разумом и эволюционным процессом, который его породил.

Однако программы искусственного интеллекта также способны продемонстрировать недостатки человеческого мышления и познания. Эти программы уже сейчас более эффективны, чем человек, в производстве научных открытий, что может значительно улучшить жизнь людей. Более того, искусственный интеллект показывает, что эволюция человека не привела к созданию совершенного продукта, как показывает пример Блейка Лемуана и LaMDA. Люди все еще сбиваются с пути благодаря своей ментальной эвристике, которая является результатом тех же эволюционных процессов, которые привели к появлению других возможностей человеческого разума. Искусственный интеллект будет функционировать лучше всего, если люди смогут определить способы, с помощью которых компьютерные программы смогут компенсировать человеческие слабости, и наоборот.

Тем не менее, наиболее глубокие вопросы, связанные с последними инновациями в области искусственного интеллекта, носят философский характер. Несмотря на многовековую работу философов и ученых, многое о сознании до сих пор остается непонятным. Как следствие, вопросы о том, могут ли программы искусственного интеллекта быть разумными, остаются открытыми. Каковы необходимые и достаточные условия для сознания? Каковы стандарты, по которым следует оценивать утверждения о разумности? Как интеллект возникает из своих базовых компонентов?

Пока что программы искусственного интеллекта не могут ответить на эти вопросы. Как, впрочем, и ни один человек. И все же их интересно обдумать. Возможно, в ближайшие десятилетия философия познания станет одним из самых захватывающих рубежей на пути революции в области искусственного интеллекта.

Оригинальная статья была опубликована в журнале Skeptic 21 июня 2024 года.

© Habrahabr.ru