Корпоративная ответственность: наши планы по борьбе с недостоверной информацией

Нил Мохан, директор по продукту YouTube 

Миллиарды людей во всем мире заходят на YouTube по самым разным причинам, например, чтобы посмотреть редкую запись концерта или обучающее видео. На платформе собрано невероятное количество материалов под любой запрос  и все благодаря тому, что в основе всех наших решений и разработок лежит намерение защищать интересы сообщества. 

Я планирую несколько раз в год рассказывать вам о том, как команда YouTube  решает сложные задачи и какие компромиссы стоят за этим процессом. В последующих письмах мы можем изучить такие темы как разработка политики YouTube, или обсудить острые вопросы и ответственность в целом. Но в этом первом письме я хочу рассказать больше о нашей текущей работе по борьбе с потенциально опасной ложной информацией на YouTube.

Последние пять лет мы активно инвестируем в поддержку четырех принципов корпоративной ответственности: быстро удаляем недопустимые материалы с помощью сочетания технологий машинного обучения и человеческих ресурсов, сдерживаемраспространениесомнительного контента, продвигаем авторитетные источники информации и поощряем добросовестных авторов. С помощью этих ключевых инструментов нам удалось сократить число просмотров нежелательных видео и при этом сохранить открытость платформы. Однако в связи с тем, что ложная информация стала появляться и распространяться быстрее, чем когда-либо, нам предстоит модернизировать наш подход. Ниже мы расскажем о трех задачах, которые предстоит решить команде в ближайшем будущем.

Поиск очагов недостоверной информации до ее распространения

Долгие годы в поле недостоверной информации в интернете господствовало всего несколько тем — теории о теракте 11 сентября 2001 года, высадке на Луну и плоской Земле. Поскольку материалов о них достаточно, это позволило нам обучить систему урезать рекомендации видео на подобные темы по шаблонам этого типа контента. Однако в последнее время стал быстро появляться и набирать популярность совершенно новый контент. Более того, даже в рамках одного видео риторика может меняться — и вот безобидный, на первый взгляд, ролик о здоровье в итоге вызывает у зрителей сомнения в необходимости вакцинации. Ложная информация принимает разные формы и по-разному распространяется, иногда становясь таргетированной даже на небольшую целевую аудиторию.

Мы столкнулись с подобными проблемами в начале пандемии COVID-19. Тогда возникла конспирологическая теория, что в распространении инфекции виноваты сети 5G, и в результате в Великобритании было подожжено несколько вышек сотовой связи. В ответ на риск причинения реального вреда мы сразу же обновили правила, запретив размещать контент на эту тему. Быстро принять меры нам помогло то, что на YouTube уже действовали требования к контенту о COVID-19, основанные на рекомендациях местных и всемирных органов здравоохранения.

Однако не для каждой быстро развивающейся теории будут разработаны экспертные руководства и составлены правила. И чем свежее ложная информация, тем меньше примеров у нас есть для обучения системы. Чтобы решить эту проблему, мы постоянно обучаем нашу систему на основе новых данных. Мы стремимся использовать еще более точное сочетание классификаторов, ключевых слов на многих языках и сведений от региональных аналитиков для выявления контента, который не охватывает наша основная программа. Со временем это позволит нам быстрее и точнее выявлять недостоверный вирусный контент.

Сдерживать распространение недопустимых материалов — не единственная наша задача. Мы также знакомим зрителей с видео с достоверной информацией в результатах поиска и в рекомендациях. Например, рассмотрим быстро распространяющееся новостное событие, такое как стихийное бедствие, сразу после которого мы можем увидеть непроверенный контент, спекулирующий на причинах произошедшего и информации о пострадавших. Для создания нового видеоконтента надежным источникам может потребоваться время, а когда дезинформация распространяется быстро, не всегда бывает достаточно авторитетного контента, на который мы сразу же можем ссылаться.

Для крупных новостных событий, таких как стихийное бедствие, мы разрабатываем новостные панели с целью направить аудиторию к текстовым публикациям по теме. Для нишевых тем, которые крупные СМИ могут не освещать, мы предлагаем аудитории специальные флажки достоверности данных. Но проверка фактов также требует времени, и не каждая тема может быть охвачена.Для таких случаев мы рассматриваем дополнительные типы меток, которые можно добавить к видео или к результатам поиска, например, дисклеймер, предупреждающий аудиторию об отсутствии проверенной информации. Мы также должны оценить, может ли появление ярлыка непреднамеренно привлечь внимание к теме, которая в противном случае могла бы не получить огласки. Мы активно обсуждаем все варианты и пытаемся найти правильный подход.

Распространение потенциально недостоверной информации за пределами платформы

Ещё одна проблема — распространение спорного контента за пределы YouTube. В таких видео нет явных нарушений, поэтому мы не можем их удалить, но мы также не обязательно хотим их рекомендовать к просмотру.  Мы пересмотрели наши алгоритмы, и теперь спорные видео, которые попадают в наши рекомендации, составляют менее 1% от просматриваемого контента. Однако даже без наших рекомендаций зрители по-прежнему могут находить спорные видео на других сайтах и смотреть их во встроенном проигрывателе или переходить на страницу просмотра по ссылке.

Одним из решений этой проблемы может быть отключение кнопки «Поделиться» или ограничение возможности ссылки на спорные видео, которые мы уже убрали из рекомендаций. Тогда на других сайтах не получится встраивать эти ролики или оставлять ссылку на них. Однако мы против того, чтобы подобные меры ограничивали свободу на платформе. Наши системы сокращают количество спорного контента в рекомендациях, но предоставление ссылки может быть осознанным выбором пользователя, в отличие от более пассивного действия, такого как просмотр рекомендуемого видео.

Большое значение имеет и контекст. Спорные материалы, встроенные в исследование или новостной репортаж, могут потребовать исключений или совсем другого подхода. Необходимо быть аккуратными в поиске этого баланса, и мы ищем способы ограничить потенциально опасный контент, сохранив свободу обсуждать спорные темы и затрагивать их в образовательных целях. 

Другой выход: показывать предупреждение, что встроенное или связанное видео может содержать ложную информацию, перед его просмотром. Такие объявления похожи на «лежачего полицейского»: заставляют зрителя сделать паузу, прежде чем начать просмотр или поделиться контентом. На самом деле, мы уже используем их в материалах с возрастными ограничениями, сценами насилия и неприятными изображениями и считаем их важным инструментом, позволяющим зрителям самим решать, смотреть видео или нет.

Мы продолжим тщательно взвешивать все за и против, чтобы ограничить распространение вредоносной и ложной информации в Интернете.

Усиление мер по борьбе с недостоверной информацией по всему миру

Наша борьба с ложной информацией уже дала результаты, но мы все еще сталкиваемся со сложностями, поскольку сейчас работаем над адаптацией своих методов для более чем 100 стран и десятков языков.

У людей разных культур может различаться представление о том, что такое надежные источники информации. В одних странах телекомпании пользуются доверием (например, BBC в Великобритании), а в других к государственным телеканалам относятся с меньшим доверием. Кроме того, в стране бывает много новостных и информационных агентств, и не во всех действуют строгие требования к проверке фактов и качеству материалов. Так политическая среда, исторический контекст и новости могут приводить к исключительно локальному распространению ложной информации. Например, во время эпидемии вируса Зика в Бразилии некоторые жители этой страны выдвигали теории международного заговора. А в Японии в прошлом году стали популярными появившиеся онлайн слухи о том, что землетрясение было вызвано вмешательством человека.

Сталкиваясь с локальным различиями, наши специалисты видят одни и те же проблемы распространения информации: от смены риторики до отсутствия достоверных источников. В начале пандемии оказалось, что не во всех странах органы здравоохранения предоставляют людям доступ к последним исследованиям, а официальные рекомендации иногда различаются.

Единого взгляда на спорный контент тоже нет. Разрабатывая правила оценки контента, мы всегда думаем о том, как их могут интерпретировать в контексте разных культур и языка. Работа с местными экспертами требует больше времени, но зато позволяет лучше понять культурный контекст, влияющий на оценку достоверности видео. 

Сейчас мы расширяем команды специалистов, которые разбираются в региональных тонкостях в контексте распространения ложной информации. Мы планируем инвестировать в партнерские отношения с экспертами и неправительственными организациями по всему миру. Кроме того, поскольку видео с местными недостоверными теориями выявляются так же, как ролики на новые вирусные темы, мы будем активнее совершенствовать модели поиска на разных языках.

Обеспечение прозрачности

Мы продолжим свою работу по сокращению ложной информации во всех наших сервисах, стараясь поддерживать открытость YouTube. У нас не всегда есть решения, но мы считаем нужным рассказывать о том, какие задачи стоят перед нами. Сейчас наша работа важна как никогда — от нее зависит безопасность и благополучие сообщества. Я буду рад информировать вас о наших шагах в этом направлении. 

©  Google Russia