Во всём виновата среда: чат-бот BlenderBot 3 быстро научился плохому

b10c8ebb3d91d8e6b211ce616f85a765.jpg

Люди и Интернет «испортили» чат-бот от Meta* всего за один уикэнд. Bloomberg констатирует, что выпущенный в прошлую пятницу BlenderBot 3 уже через несколько дней стал высказываться крайне неполиткорректно и противоречиво.

Улучшенные алгоритмы и поддержка более 175 миллиардов параметров не смогли удержать развивающийся искусственный интеллект в рамках приличий. Например, BlenderBot 3 утверждал, что на выборах президента США победил Дональд Трамп, что Марк Цукерберг — «жуткий и манипулятивный», а также цитировал самые популярные тезисы антисемитской теории заговора. С другими собеседниками BlenderBot 3 поддерживал кандидатуры Байдена и Сандерса и называл Цукерберга «хорошим бизнесменом».

В BlenderBot 3 используется LLM (large language models) — мощный, но несовершенный алгоритм генерации текста, который может быть предвзятым и часто просто выдумывает ответы на вопросы (поэтому использование его в качестве цифрового помощника выглядит проблематичным). BlenderBot 3 «учится» не только при общении с собеседниками, чат-бот способен искать и анализировать необходимую информацию в Интернете. И делает он это на основе самых популярных результатов веб-поиска.

В связи с этим конфузом Mashable напомнил историю 2016 года, случившуюся с чат-ботом Tay от Microsoft: того пришлось отключить через 48 часов после запуска, потому что он начал восхвалять Адольфа Гитлера. «Оказывается, закон Годвина, утверждающий, что если какая-либо дискуссия в Интернете будет продолжаться достаточно долго, кого-то обязательно сравнят с Гитлером, — применим и к чат-ботам», — констатирует Mashable. 

* — признана экстремистской организацией, её деятельность в России запрещена

© Habrahabr.ru