Vice: система автозаполнения в поиске Twitter рекомендовала пользователям строки о пытках животных и других ужасах

Источник

Twitter отключил автозаполнение в строке поиска после того, как пользователи обнаружили, что сервис начал рекомендовать к автозаполнению запросы с жестоким обращением с животными и другие ужасы, передаёт Vice. Ввод безобидных поисковых запросов по типу «кот» или «хомяк» начал выдавать предложения для автозаполнения по типу «хомяк в микроволновке» и «кот в блендере».

f84756e44b25e250ea92f67b5e3ce9ee.png


Также алгоритм активно предлагал различные фразы с отсылкой на шокирующие события и видеозаписи. Например, поиск по запросу «Вагнер» в первую очередь выдавал ссылку на казнь, «Техас» — видео со стрельбой в техасском торговом центре в начале мая этого года.

Twitter «исправил» проблему отключением автозаполнения. На текущий момент поиск по указанным запросам выдаёт предполагаемых пользователей.

Неясно, почему сервис внезапно начал предлагать множество фраз с негативным и насильственным окрасом. Twitter не ответил на запрос Vice с просьбой прокомментировать ситуацию.

© Habrahabr.ru