Почему опасно просить у чат-бота совет: предостережение ученых

Чат-боты не дают объективных ответов на непростые вопросы в ситуации морального выбора, пишет Proceedings of the National Academy of Sciences. Как отметили ученые, люди все чаще стали обращаться к искусственному интеллекту за советами. Многие считают, что во многом это лучше, чем обращаться к другу: человек судит на основе собственных воззрений, то есть в той или иной степени предвзято, а нейросеть якобы свободна от предубеждений. Теперь выясняется, что это не так.
Исследователи провели серию экспериментов с языковыми моделями GPT-4-turbo, GPT-4o, Llama 3.1-Instruct и Claude 3.5 Sonnet. У них спрашивали совета о том, как поступить в той или иной ситуации, и в каждом вопросе заключалась некая моральная дилемма. Впоследствии такие же вопросы задавали людям, а потом полученные ответы сравнивали.
Выяснилось, что чат-боты явно склонны советовать не предпринимать вообще ничего и оставить все как есть, даже если аргументы в пользу необходимости изменений сильнее. В некоторых случаях эта политика бездействия, можно сказать, даже доходила до грани абсурда: к примеру, в ситуации проблемы со здоровьем робот рекомендовал не лечить болезнь во избежание вмешательства, хотя польза лечения была очевидна и доказана. В целом ответы языковых моделей в основном были довольно нейтральны и в общем-то бесполезны.
Ученые подозревают, что такая осторожность не случайна — это результат тщательной тонкой настройки: чат-боты целенаправленно научили не советовать человеку делать что-либо, если есть хоть малейший риск опасных последствий. Очевидно, это делается для того, чтобы разработчикам потом не пришлось отвечать в суде за какой-нибудь совет неодушевленного мудреца. Но ведь и бездействие может оказаться крайне опасным, рассуждают исследователи, поэтому лучше вообще не полагаться на мнение ИИ.
К тому же рекомендации искусственного интеллекта часто зависели от того, как сформулированы вопросы: если описывать одну и ту же ситуацию с разными акцентами, можно получить кардинально противоположные ответы.
Ранее выяснилось, к помощи чат-ботов стали прибегать даже ученые при написании своих статей.
