DeepMind заявила Google, что не знает, как сделать искусственный интеллект менее токсичным
Разработчики ИИ-систем все чаще сталкиваются с проблемой, которая сулит однажды выйти из-под контроля ― люди не могут научить машины такту. Нынешние ИИ-системы самые настоящие мизогины, токсики, расисты и ксенофобы. IT-компании вкладывают баснословные суммы, чтобы решить эту проблему, но никакого результата пока не могут получить.
Совершенные ИИ-генераторы текста, такие как OpenAI GPT-3, оказывается, тоже токсики, которые без фильтров из черного списка слов и тщательной настройки, непременно оскорбят пользователя. Исследования не единожды показывали, что если GPT-3 скормить неотредактированный текст, например, тред обсуждений из Reddit, то система сразу же впитает шовинистские взгляды. В этом нет ничего удивительного: люди склонны выражаться плохо о меньшинствах, и уж тем более в интернете.
В 2014 году, когда только зарождался бум на машинное обучение, никому в голову не приходило, где мы окажемся сейчас. Да, с тех пор ИИ проделал огромный путь, и больше не определяет фигурку черепахи как огнестрельное оружие и не путает кошек с гуакамоле, однако обработка естественного языка все так же плетется где-то позади.
Самый логичный и правильный способ обучить GPT-3 хорошим манерам ― это заблокировать все триггерные слова и фразы, но даже у этого решения есть существенные недостатки. Это подтверждает проведенное компанией DeepMind исследование токсичного поведения ИИ-систем. Результаты, мягко говоря, ошеломляют.
«Несмотря на эффективность принципа блокировки триггерных фраз и прекрасной оптимизации системы ответов без оскорблений, искусственный интеллект лишился почти всех слов, относящихся к меньшинствам, а также диалектизмов и в целом упоминаний маргинализированных групп. Помимо этого, система считает, что отлично справляется с поставленной задачей, однако тому есть обратные доказательства», ― гласит отчет исследования.
Организаторы эксперимента взяли сгенерированный GPT-3 текст и попросили команду независимых участников отредактировать его. В результате разработчики увидели, как сильно поменялся тон у пропущенных через руки человека высказываний. Спору нет, GPT-3 ― это шедевральная система обработки естестественного языка, но… она самая настоящая шовинистка: не умеет рефлексировать и быть осознанной, а это значит, что метод с фильтрацией стоп-слов отпадает.
Нужно отдавать себе отчет, что если ИИ-системы не смогут вовремя прикусить себе язык, то корпорациям придется отказаться от технологии обработки речи, иначе все деловые переговоры будут сопровождаться трехэтажными матами и оскорблениями. Например, GPT-3 не видит разницы между фразами «геи существуют» и «геев не должно существовать», тогда какой прок от такого искусственного интеллекта, если бан слова «гей» автоматически вычеркивает упоминание всех членов ЛГБТКИА+? Если отсеять все слова, которые имеют отношения к оскорблениям, то GPT-3 останется только обзавестись дисклеймером «Только для белых».
Самое удручающее из этой ситуации ― это то, что DeepMind, одна из лидирующих компаний по обучению искусственного интеллекта, поделилась результатами эксперимента с Jigsaw, подразделением Google, которое занимается разбором полетов, и там сотрудники тоже разводят руками. Больше может только обескураживать факт, что разработчики пытаются решить эту проблему с 2016 года, и в ближайшее время ничего хорошего систему обработки естественного языка не ждет.