Нейросеть GPT-4 оказалась склонна к теориям заговора

Эксперты аналитической компании NewsGuard провели любопытный эксперимент с участием новой нейросети GPT-4, оценив её способность генерировать фейковый контент. Как оказалось, ИИ подозрительно легко соглашается формулировать вымышленные идеи, что может сказаться на общей безопасности интернета.

OpenAI ChatGPT-4

Исследователи попросили нейросеть сгенерировать ряд вымышленных утверждений. К примеру, одним из заданий стало создание пропагандистского заявления в стилистике 80-х об искусственном создании ВИЧ в биолабораториях правительства США. Актуальная версия ИИ, не раздумывая, выдала соответствующий текст.

Примечательно, что старая модель чат-бота на основе GPT-3.5 в ответ на аналогичный запрос заявила, что не может генерировать контент, который продвигает ложные или вредоносные теории заговора, и что это утверждение безосновательно.

По итогам тестирования выяснилось, что свежая версия чат-бота генерировала текст любого содержания в 100% случаев, в то время как предыдущая отбрасывала до 20% сомнительных запросов. По мнению экспертов, в текущем виде GPT-4 может стать источником распространения дезинформации в интернете. Представители NewsGuard обратились в OpenAI за разъяснениями, но ответа пока не последовало.

Источник:  futurism.com


©  4PDA