ИИ научился дурачить даже медиков-профессоров и экспертов по борьбе с хакерами

До сегодняшнего дня алгоритмы искусственного интеллекта умели писать правдоподобные новости для неискушённых посетителей «жёлтых» сайтов, но теперь машины научились генерировать пачками материалы, которые вводят в заблуждение даже людей с академическим образованием.
99dc623820537e67f90379c372d87811a5717062

Аспиранты и профессоры компьютерных наук университета Мэриленда (США) опубликовали научную статью, в которой предсказали, что системы ИИ уже сейчас способны посеять хаос в сферах медицины и кибербезопасности. Если попадут к злоумышленникам, конечно.

Авторы исследования сообщают, что для написания фейковых исследований и научных статей достаточно GPT-2 (Generative Pre-trained Transformer 2, второе поколение алгоритмов обработки естественного языка).

Сегодня существует и более совершенный GPT-3, но настроенной модели для второго поколения достаточно, чтобы, например, написать развёрнутый реферат о вреде вакцинации против COVID-19 «из ниоткуда». С правдоподобно выглядящими доказательствами, теоремами и исследованиями.

Или выпускать «экспертные заключения» о хакерских атаках или компьютерных вирусах, которых никогда не существовало. И в таких исследованиях тоже не будет откровенной дезинформации или фальши, которую могли бы распознать эксперты по информационной безопасности.

Для противодействия таким системам учёные предлагают продумать, по какому принципу действуют алгоритмы мошенников. Например, научиться выявлять характерные грамматические ошибки, которые встречаются только в текстах, написанных машинами. Либо можно создать системы, которые будут крупномасштабно искать подтверждение информации в интернете и находить «исходники», из которых нейросети заимствовали теоремы и доказательства.

©  Ferra.ru