Больше информации, быстрое удаление недопустимого контента, расширенная команда сотрудников – отчёт о том, как мы следим за соблюдением принципов сообщества YouTube



Команда YouTube

В декабремы рассказали, как планируем совершенствовать механизмы удаления контента, нарушающего наши правила. Сейчас мы вносим дополнительные изменения и хотим подробнее рассказать о них, а также представить первый отчет о мерах, предпринятых для контроля за соблюдением принципов сообщества YouTube.

Более подробная информация

Мы делаем важный первый шаг, представляя вамквартальный отчето том, что предпринято для контроля за соблюдениемпринципов сообщества. Мы хотим показать наш прогресс в вопросах удаления недопустимого контента с нашей платформы. В конце года мы планируем обновить систему отчетов и добавить дополнительные данные, например о комментариях, скорости удаления и его причинах.

Мы также представляем вам сводку по истории сообщений о нарушениях. Все пользователи YouTube могут просматривать собственные сводки, чтобы узнать о статусах тех видео, которые они отправили для проверки на соответствие принципам сообщества.

Использование автоматизации при обнаружении недопустимого контента

Автоматизация позволяет нам оперативно проверять большие объемы контента и удалять миллионы недопустимых видео ещё до того, как их увидят пользователи. Мы развиваем технологии машинного обучения, и в результате быстрее удаляем как единичные видео высокого риска (например, содержащие призывы к экстремизму), так и большие объемы контента (например, спам).
Выдержки из отчета за период с октября по декабрь 2017 г.:
За эти месяцы мы удалили более 8 млн видео с YouTube. В основном это был спам или видео с содержанием, предназначенным только для взрослых. Просмотры такого контента составили всего долю процента от общего количества просмотров на YouTube за этот период.6,7 млн видео было отправлено на проверку автоматически до того, как это сделали пользователи.
Из этих 6,7 млн видео 75% было удалено до того, как их увидели пользователи.
Например, в начале 2017 г. 8% видео, на которые пожаловались пользователи, было удалено за демонстрацию насилия и экстремизма до того, как ролики получили 10 просмотров. В июне 2017 г. мы начали использовать машинное обучение, и теперь больше половины видео со сценами насилия и экстремизма удаляется до того, как получит 10 просмотров.





XufOZgZrZdTzik0VHSZRvCBBWU3VeXCPHWRqH4da

Сотрудничество людей и технологий

Применение технологии машинного обучения способствовало тому, что еще больше наших сотрудников стали проверять контент. Наши системы рассчитаны на обязательную проверку нарушений специалистами, чтобы понять действительно ли контент нарушает правила сообщества. Чтобы подробнее узнать о том, что происходит при жалобе на контент и как его проверяют эксперты, посмотрите это видео.


В прошлом году мы пообещали до конца 2018 года увеличить общее количество сотрудников Google, занимающихся контентом, который нарушает наши правила, до 10 000 человек. Мы наняли необходимое количество сотрудников в команду YouTube для решения важных вопросов и достижения наших целей. Кроме того, мы наняли штатных экспертов по вопросам насилия, экстремизма, прав человека и борьбы с терроризмом, а также расширили команды региональных экспертов.

Мы продолжаем расширять сеть из более 150 ученых, правительственных партнеров и неправительственных организаций, которые проводят экспертизу нашей системы правил. В этот список входят: Международный центр по изучению экстремизма в Королевском колледже в Лондоне, Антидиффамационная лигаиИнститут семейной безопасности в Интернете. Последний включает организации родителей, обеспокоенных безопасностью детей во всем мире: Childline South Africa в ЮАР, ECPAT в Индонезии(организация по борьбе с сексуальной эксплуатацией детей) иСоюз родителей Южной Кореи в Интернете.

Мы обязуемся следить за тем, чтобы YouTube оставался живым сообществом со строгой системой удаления контента, не соответствующего правилам. Также мы планируем и в дальнейшем предоставлять вам информацию о том, как эта система работает и развивается.

©  Google Russia