Учёные обманули искусственный интеллект с помощью другого ИИ

Зачем? Почему бы нет
684b57369de664c0edac3e4529b0cd0b53c79feb
Учёные из Массачусетского технологического института (MIT) обманули искусственный интеллект с помощью другого ИИ. Специально обученная система не смогла идентифицировать текст по-прежнему после замены некоторых слов на синонимы.

Об этом пишет «Красная весна», ссылаясь на Wired. Исследователи заметили, что незначительное изменение фразы, которое человек мог бы считать без искажения смысла, искусственный интеллект «понять» не способен. Тогда они решили создать алгоритм, который подбирал бы синонимы для изменения фраз и обманул бы таким образом ИИ, распознающий текст.

В материале приводится пример такого обмана. Так, фраза «The characters, cast in impossibly contrived situations, are totally estranged from reality.» («Персонажи, сыгранные в невероятно надуманных ситуациях, полностью оторваны от реальности»). Она определяется ИИ как негативный отзыв к фильму. Однако если заменить в ней некоторые слова контекстуальными синонимами — «The characters, cast in impossibly engineered circumstances, are fully estranged from reality» («Персонажи, сыгранные в невероятно спланированных обстоятельствах, полностью оторваны от реальности») — то ИИ сочтёт отзыв положительным.

Все права защищены. Полное или частичное копирование материалов Сайта в коммерческих целях разрешено только с письменного разрешения владельца Сайта. В случае обнаружения нарушений, виновные лица могут быть привлечены к ответственности в соответствии с действующим законодательством Российской Федерации.

©  Ferra.ru