Ученые бьют тревогу: «мусорная наука» заполонила интернет
Ученые из Швеции пришли к пугающему выводу: использование искусственного интеллекта для создания научных статей представляет серьезную угрозу как для научного сообщества, так и для общества в целом. В рамках свой работы они выявили более сотни статей, вероятно, сгенерированных ИИ, в поисковой системе Google Scholar. Эти «мусорные» статьи могут распространяться с минимальными затратами, что делает их удобным инструментом для недобросовестных акторов.
Одним из ключевых рисков, связанных с ИИ-сгенерированными научными статьями, является так называемый «взлом доказательств» — использование поддельных исследований для стратегической манипуляции общественным мнением или научным консенсусом.
«Риск взлома доказательств значительно увеличивается, когда такие работы попадают в поисковые системы, — объясняет доктор библиотечных и информационных наук Бьерн Экстрем. — Ошибочные результаты могут проникнуть в общество, затронув все больше областей».
Ученые отмечают, что подобные статьи не только присутствуют в Google Scholar, но и быстро распространяются в других частях исследовательской инфраструктуры: архивы, социальные сети и другие платформы. Даже если такие материалы впоследствии изымаются, они успевают повлиять на восприятие и решения людей.
Распространение поддельных научных данных создает дополнительную нагрузку на систему рецензирования, которая и так испытывает серьезное давление. Обнаружение и исключение таких материалов требует значительных ресурсов, а сам факт их наличия подрывает доверие к научной публикации.
Распространение сгенерированных ИИ статей требует от пользователей более высокого уровня медиаграмотности. Профессор библиотечных и информационных наук Ютта Хайдер подчеркивает: «Если мы не можем быть уверены в подлинности исследований, мы рискуем принимать решения на основе ложных данных».
Она также отмечает, что Google Scholar, хотя и удобен в использовании, не является полноценной академической базой данных. Отсутствие процедур проверки качества делает его уязвимым для распространения недостоверной информации, особенно когда дело касается научных данных.
Хайдер подчеркивает важность навыков критической оценки источников: умение различать качественные рецензируемые публикации и фальсифицированные работы имеет решающее значение для формирования мнений и принятия обоснованных решений.
Расследование ученых поднимает важные вопросы о будущем научной коммуникации в эпоху искусственного интеллекта. В условиях, когда технология используется не только для ускорения исследований, но и для создания подделок, научному сообществу предстоит найти способы защитить свои принципы и сохранить доверие общества.
Ранее ученые назвали новые ИИ-угрозы, которые ждут россиян в 2025 году.