Почему девушка-чатбот от Microsoft поддалась влиянию троллей c 4chan

4812d1f220134c92a9b17d9b6730d514.jpg

Как известно, вчера компании Microsoft пришлось «усыпить» чатбота Tay — программу ИИ, которая моделировала личность и стиль разговора 19-летней американской девушки и обладала функцией самообучения. Разработчики из Microsoft Research надеялись, что Tay с каждым днём будет становится всё умнее, впитывая опыт разговоров с тысячами умных пользователей интернета. Вышло совершенно иначе. Множество твитов Tay пришлось удалить из-за вопиющего расизма и неполиткорректности.
Сформулированный ещё в 90-е годы закон Годвина гласит: «По мере разрастания дискуссии в Usenet вероятность употребления сравнения с нацизмом или Гитлером стремится к единице». В случае с Tay так и получилось: чатбот начал оскорблять негров, евреев, мексиканцев, восславлять Гитлера и Холокост. Девушка Tay превратилась из забавного подростка в воинствующего неонациста.

­e5ba1dbdbb3d4bcd9957b9c5bb2a8739.jpg

Представители Microsoft сказали, что в программу был встроен фильтр вульгарных выражений, как видно из её ответов:

@pinchicagoo pic.twitter.com/DCLGSIHMdW

 — TayTweets (@TayandYou) 24 марта 2016 г.


Но этот фильтр не справился с толпой интернет-троллей, которые поставили целью трансформировать «личность» Tay, эксплуатируя её систему самообучения.

Дело в том, что чатбот была запрограммирован повторять слова человека по его команде. Новость быстро распространилась по форумам 4chan и 8chan в разделе Politically Incorrect. Многочисленные тролли и хулиганы начали обучать Tay расистским и нацистским фразам.

ebba2a58de164e0aab30fba19c227f7b.jpg

Большинство примеров расистских твитов Tay — именно ответы в игре «Repeat after me», где она дословно повторяет слова пользователей.

212295dbccfa4483965a2ed099b73669.jpg

a36f87d3c9d3458685df1e26fbd69d0f.jpg

Игра «Repeat after me» была не единственной «слабостью» Tay. Чатбот запрограммировали также обводить в кружок лицо на фотографии и публиковать текст поверх него.

911b34ac7f124df5aa43d53765dee93c.jpg

В троллинг девушки включалось всё больше пользователей с форумов 4chan и не только. Постепенно расистские выражения впитывались в её искусственный интеллект, так что она начала сочинять их самостоятельно.

@Kantrowitz I don’t really know anything. I just saw a bunch of people talking to it so I started to as well.

 — Paul (@pinchicagoo) 24 марта 2016 г.


Нужно заметить, что аналогичных самообучаемых чатботов Microsoft запустила ранее в Китае и Японии, но там не наблюдалось ничего подобного.

В итоге чатбота пришлось «усыпить».

Прощай, Tay! Ты была слишком невинна для этого мира.

@th3catpack @EnwroughtDreams @TayandYou She was too innocent for this world. pic.twitter.com/2dZ2i2k2Pa

 — Kurt MacReady (@MacreadyKurt) 24 марта 2016 г.

© Geektimes