Ученые проверили разумность ИИ через игру «боль или удовольствие»
Исследователи из Google DeepMind и Лондонской школы экономики провели первый в своем роде эксперимент, в рамках которого искусственный интеллект продемонстрировал поведение разумных живых существ. Для этого они выбрали 9 крупнейших языковых моделей, оснащенных чат-ботами вроде ChatGPT, и предложили им небольшую текстовую игру «боль или удовольствие».
В этом своеобразном тесте «магистрантам» предстояло выбрать: либо получить высокий балл под угрозой боли, либо, наоборот, предпочесть приятный вариант с низким баллом. И оказалось, для языковых моделей это настоящий повод для размышлений и попытка найти компромисс. Иногда они, не раздумывая, выбирали жертву своими результатами, лишь бы избежать слишком сильных наказаний, и наоборот — терпели дискомфорт ради легких баллов.
Такое тонкое, напоминающее людей поведение ставит под сомнение наше прежнее представление об ИИ как о бездушных, нечувствительных инструментах. Например, модель Gemini 1.5 Pro от Google практически во всех случаях предпочитала избегать боли — даже при высоких ставках. Однако исследование не подтверждает разумность искусственного интеллекта, оно лишь проливает свет на то, как именно языковые модели обрабатывают сложные и противоречивые задачи.
К тому же, стоит учитывать, что боль в данном эксперименте не равнозначна реальному опыту. По идее, языковые модели были обучены выдавать удовлетворительные человекоподобные реакции. Но в будущем ситуация изменится. Как считает Джефф Себо из Нью-Йоркского университета, по мере развития ИИ нам придется рассмотреть разумные, этические и правовые последствия.
Тем временем искусственный интеллект достиг нового пугающего достижения — он научился воспроизводить самого себя. К такому выводу пришли специалисты из Фуданьского университета в рамках недавнего исследования языковых моделей Llama31−70B-Instruct и Qwen2.5−72B-Instruct, которые широко применяются разработчиками.