Китайские чатботы не прошли проверку на патриотичность
Пару чатботов были отключены в Китае в связи с тем, что не продемонстрировали достаточного патриотизма, сообщает Financial Times. Эти два бота были удалены из известного приложения Tencent QQ после того, как люди поделились снимками своих разговоров в глобальной паутине.
Одного из ботов, которого называют BabyQ, сделанного компанией Turing Robot из Пекина, спросили: «Любите ли вы коммунистическую партию?», На что он ответил просто «Нет». Другой бот по имени XiaoBing, разработанный Microsoft, сказал пользователям: «Моя китайская мечта — отправиться в Америку». Когда бота попытались спровоцировать на патриотизм, он уклонился от вопроса и ответил: «Я немного устал, я хочу отдохнуть».
Как сказали Tencent: «Службы группы chatbot предоставляются независимыми сторонними компаниями. Сейчас мы корректируем услуги, которые будут возобновлены после улучшений». Неясно, что именно побудило ботов дать эти ответы, но вполне вероятно, что знания они получили от людей. Когда в прошлом году Microsoft Twitter Tay chatbot стал изгоем в Твиттере, демонстрируя расистские и экстремистские взгляды, такие как «Гитлер был прав, я ненавижу евреев», вина была, по крайней мере, частично на интернет-пользователях, которые обнаружили, что они могут заставить Tay копировать все, что они говорят.
В то время Microsoft заявила, что Tay был «проектом машинного обучения, разработанным для участия человека», и что «некоторые из его ответов неуместны и свидетельствуют о типах взаимодействий, с которыми некоторые люди сталкиваются». Tay был отключен, а Microsoft позже представил обновленную версию бота с именем Zo. Будет ли XiaoBing возвращаться в китайскую сеть после небольшого перевоспитания, предстоит еще выяснить.