Общение с чат-ботами сужают лексикон человека, установили немецкие учёные

ChatGPT и другие чат-боты с искусственным интеллектом меняют мир, оказывая в том числе влияние и на речь современного человека. К таким выводам пришли в своём недавнем исследовании немецкие учёные — они предупредили об угрозе утраты языкового и культурного разнообразия.

Источник изображения: Igor Omilaev / unsplash.com

Источник изображения: Igor Omilaev / unsplash.com

Группа учёных из Института развития человека им. Макса Планка опубликовала предварительную нерецензированную версию исследования. Они обнаружили, что слова, которые часто употребляет ChatGPT, стали чаще появляться и в человеческой речи с тех пор, как в 2022 году появился популярный чат-бот с ИИ. В список «слов GPT» попали «понимать», «гордиться», «быстрый», «тщательный» и самое популярное — «вникать». Учёные проанализировали на YouTube записи 360 445 академических выступлений и 771 591 выпуск подкастов и пришли к выводу, что слова «вникать», «быстрый», «тщательный» и «запрос», среди прочих, действительно стали употребляться чаще в подкастах и видео по различным тематикам.

Авторы исследования не дают оценок, носит эта перемена положительный или отрицательный характер, но обнаруженных ими фактов достаточно, чтобы задаться вопросом о том, есть ли у больших языковых моделей собственная культура, способная повлиять на формирование нашей. Взаимодействие ИИ и человека может иметь долгосрочные последствия для механизмов использования языка обеими сторонами, и этот механизм может привести к формированию «замкнутой петли культурной обратной связи, в которой культурные аспекты циркулируют в обе стороны между людьми и машинами», указывают учёные: при достаточных времени и охвате языковой дискурс между ИИ и человеком может привести к культурной однородности.

«Если системы ИИ станут отдавать непропорциональное предпочтение определённым культурным аспектам, они могут ускорить разрушение культурного разнообразия. Угрозу усугубляет тот факт, что будущие модели ИИ станут обучаться на данных, в которых всё больше доминируют определяемые ИИ аспекты, и которые ещё больше усиливаются благодаря принятию человеком, укрепляя тем самым однородность в самовоспроизводящемся цикле. <..> По мере монополизации определённых шаблонов возрастает риск коллапса модели, обусловленный новым фактором: даже включение людей в цикл обучения моделей может не обеспечить необходимого разнообразия данных», — говорится в исследовании.

©  3DNews