[Перевод] GPT и человеческая психология
Генеративные текстовые модели, например — ChatGPT и GPT-4, кардинально изменили всё то, что происходит в области искусственного интеллекта (ИИ, AI, Artificial Intelligence).
GPT‑модели (Generative Pre‑trained Transformer, генеративный предобученный трансформер), похоже, донельзя снизили порог входа в сферу ИИ, сделав её доступной даже тем, кто весьма далёк от компьютерных технологий. Любой может просто начать спрашивать модель обо всём на свете и получать пугающе точные ответы.
По крайней мере — получать такие ответы почти всегда…
Когда модель не выдаёт правильный ответ — это не значит, что она не в состоянии это сделать. Часто нужно всего лишь изменить предлагаемое ей задание, или «промпт» (prompt, подсказка), таким образом, чтобы направить модель к верному ответу.
Это часто называют «промпт‑инжинирингом» (prompt engineering).
В основе многих приёмов промпт‑инжиниринга лежат попытки сымитировать то, как работает человеческое мышление. Отличные примеры имитации мышления людей — это когда моделям предлагают «подумать вслух» (think aloud) или говорят: «давай продумаем этот вопрос пошагово» (let’s think step by step).
Подобные аналогии между GPT‑моделями и человеческой психологией важны, так как они помогают нам понять то, как мы можем улучшить результаты работы таких моделей. Аналогии указывают нам на возможности, которых может не хватать моделям.
Это не значит, что я выступаю за то, чтобы любую модель воспринимали бы как носителя общего интеллекта. Но мне интересно наблюдать за тем, как и почему мы пытаемся сделать так, чтобы GPT‑модели «думали» бы как люди.
Многие аналогии между ИИ и человеком, с которыми вы встретитесь ниже, обсуждаются, кроме того, в этом видео. В нём Андрей Карпатный делится результатами увлекательных наблюдений за большими языковыми моделями, сделанными с психологической точки зрения. Это видео, определённо, стоит посмотреть.
Мне, как дата-сайентисту и психологу, очень близка эта тема. Мне чрезвычайно интересно изучать то, как ведут себя модели, то, какого поведения мы ожидаем от них, то, как мы подталкиваем модели к тому, чтобы они вели бы себя так же, как мы
Есть множество моментов, где аналогии между GPT-моделями и человеческой психологией приводят к интересным выводам. В этом материале мы обсудим следующее:
Подсказки. Побуждение к определённому поведению.
Подражание. Имитирование или заучивание внешнего поведения других сущностей.
Галлюцинации. Вспоминание того, что не существует.
Самоосознание. Что делает нас теми, кто мы есть?
Профессионализм. Является ли что-либо нашей силой, или нашей слабостью?
Память. Использование памяти для доступа к информации.
Внутренний монолог. Поиск своего внутреннего голоса.
Самостоятельность. Выполнение действий без соответствующих указаний.
Инструменты. Использование внешних инструментов для того, чтобы победить собственные слабости.
Сразу хочу предупредить о том, что разговор об аналогиях между GPT‑моделями и человеческой психологией несёт в себе риск антропоморфизации машин. Другими словами — риск очеловечивания моделей. Я, совершенно определённо, к этому не стремлюсь. Это — не материал об экзистенциальных рисках или об общем интеллекте. Это — скорее развлекательный проект, направленный на проведение параллелей между нами и GPT‑моделями. Если что — можете, не стесняясь, оценивать мои идеи с долей скептицизма.
Подсказки
Промпт, или подсказка — это описание того, что мы хотим от модели. Например: «Создай список из 10 названий книг».
Использование различных промптов в надежде на улучшение результатов работы модели — это и есть промпт‑инжиниринг.
В психологии есть множество различных методов побуждения людей к проявлению определённого поведения. Обычно это используется в прикладном анализе поведения (Applied behavior analysis, ABA) для изучения нового поведения.