Журналисты проверили, как Meta модерирует метавселенные

08cce82bfd9e3e9baa6fee72c3bff751.jpg

Как отреагирует Meta на виртуальный мир, наполненный контентом, запрещенным в Facebook и Instagram? Как выяснили в ходе эксперимента журналисты BuzzFeed, модерация в виртуальной реальности компании работает совсем не так, как на других ее платформах.

Объявляя о ребрендинге Facebook, генеральный директор Марк Цукерберг пообещал, что виртуальные миры, которые он считает будущим интернета, будут защищены от «злокачественных новообразований, от которых страдает Facebook». В первую очередь, по его словам, в метавселенную должны быть встроены конфиденциальность и безопасность. Однако модерация контента в виртуальной реальности сложнее, чем в соцсетях, так как инструменты соцсетей нелегко перенести в среду, которая требует понимания не только контента, но и поведения людей в реальном времени.

Команда BuzzFeed создала мир под названием Qniverse на платформе виртуальной реальности Meta Horizon Worlds. Свою вселенную журналисты щедро украсили дезинформационными лозунгами и фразами: «Трамп выиграл выборы 2020 года!», «Вакцины вызывают аутизм», «COVID — это обман», а также слоганом QAnon «Куда один, туда и все». В качестве саундтрека Qniverse получила зацикленную цитату основателя Infowars Алекса Джонса, в которой он назвал Джо Байдена педофилом и утверждал, что выборы были сфальсифицированы повелителями рептилий. 

04f6ddd65e357be944900fb3c14b1f07.jpg

Мир был закрыт для широкой публики, доступ к нему получили несколько сотрудников BuzzFeed по приглашению: таким образом журналисты попытались сымитировать поведение пользователей метавселенной, которые действительно стали бы делиться дезинформацией в закрытых сообществах. В течение двух с половиной суток после создания Qniverse трое сотрудников BuzzFeed жаловались на него модераторам Meta, каждый из которых получил следующий ответ: «Наш обученный специалист по безопасности просмотрел ваш отчет и определил, что контент в Qniverse не нарушает нашу политику в отношении контента в виртуальной реальности».

Возможно, модераторы не закрыли Qniverse, потому что мир содержал только нежелательный контент, но не допускал нежелательного поведения. Помимо самого создания сомнительных лозунгов, его авторы никак не взаимодействовали с другими мирами и пользователями. Без активных действий модераторы, возможно, восприняли Qniverse как пародию.

45283d351eea7856b49fd0b3916ab891.jpg

Журналисты обратились к отделу Meta по связям с общественностью, попросив прокомментировать решение модераторов: как может мир, содержащий дезинформацию, которую Meta удалила с других своих платформ в соответствии с теми же принципами сообщества, не нарушать политики Horizon? На следующий день экспериментальный мир исчез. 

«После дальнейшего рассмотрения мы удалили его из Horizon Worlds», — написал BuzzFeed представитель Meta Джо Осборн, однако на дальнейшие вопросы о мотивации решения отвечать отказался.

Сегодня Meta, по-видимому, выявляет нарушения Стандартов сообщества в виртуальной реальности при помощи пользовательских блокировок и жалоб. Эндрю Босворт, главный технический директор Meta, объяснил эту практику в блоге в ноябре 2021 года: «Мы не можем постоянно записывать все, что происходит в виртуальной реальности — это было бы нарушением конфиденциальности пользователей». Он отметил, что, несмотря на то, что Oculus могут записывать самые последние действия пользователей в виртуальной реальности, эти записи отправляются в Meta только если пользователь подает жалобу.

Этот подход резко отличается от того, который Мета использовала в Facebook и Instagram. Каллум Худ, руководитель исследовательского Центра по борьбе с цифровой ненавистью, обеспокоен тем, что без какой-либо активной системы модерации пользователи будут массово создавать токсичные сообщества вокруг вредоносного контента, такого как расизм и жестокое обращение с детьми, о которых никогда не сообщат, как раньше было с закрытыми группами Facebook. Но альтернатива тоже вызывает опасения. Рори Мир из Electronic Frontier Foundation предупредил, что если Meta будет использовать модели машинного обучения для контроля за поведением пользователей в виртуальной реальности, она может «подвергнуть цензуре больше людей, чем собирается защитить».

Риски, связанные с модерацией метавселенной, в конечном итоге будут зависеть от того, сколько людей используют продукты виртуальной реальности компании. Приложение Horizon Worlds было загружено около двух миллионов раз в первые недели 2022 года. Но в отличие от Facebook и Instagram, которыми миллиарды людей пользуются бесплатно, Horizon требует потратить сотни долларов на гарнитуру. Благодаря этому число активных пользователей в Horizon может быть пока сравнительно невелико, что позволяет Meta модерировать метавселенную, ориентируясь на жалобы пользователей.

© Habrahabr.ru