В Индии deepfake использовали для «позитивной» избирательной кампании

image

В Индии накануне выборов в Законодательное собрание Дели в WhatsApp распространили два видео президента Партии Бхаратия Джаната (БДП) Маноджа Тивари, который критиковал действующее правительство Дели Арвинда Кейривала. На первом видео Тивари говорил по-английски, а на втором — на хинди на диалекте харьянви.

»[Кейривал] обманул нас своими обещаниями. Но теперь у Дели есть шанс изменить все это», —заявил политик.


Однако в оригинальном видео речь Тивари была другой:


Выяснилось, что БДП в Дели заключила партнерское соглашение с фирмой политических коммуникаций The Ideaz Factory для создания «позитивной кампании» с использованием deepfake для охвата различных языковых групп избирателей. «Технология Deepfake помогла нам как никогда масштабировать кампанию. Видео позволяет нам убедительно приблизиться к целевой аудитории, даже если кандидат не говорит на языке избирателя», — рассказывает VICE Нилкант Бакши, со-руководитель направления социальных сетей и информационных технологий в БДП.

Видео Тивари широко использовалось, чтобы отговорить большое число рабочих-мигрантов в Дели, говорящих на диалекте харианви, голосовать за конкурирующую политическую партию. Deepfake распространили среди 5800 групп WhatsApp в Дели, охватив примерно 15 млн человек.

В оригинале Тивари сидит на фоне зеленой стены перед камерой. Его речь заранее согласовали с партией для создания видео. Тонкость заключается в том, что производитель для видео менял движения губ Тивари. «Мы использовали алгоритм«фальшивой синхронизации по губам» и ​​обучили его по речам Маноджа Тивари», — говорит Сагар Вишной, главный стратег в The Ideaz Factory. Фирма наняла дублирующего художника, читающего сценарий, чтобы заменить Тивари.

Бакши из БДП говорит, что реакция на эти видео была обнадеживающей. «Домохозяйки в группе сказали, что им было радостно наблюдать, как наш лидер говорит на их языке», — сказал он.
После первого ролика партия выпустила второе видео, на котором Тивари говорит уже по-английски, предназначенное для «городских избирателей Дели».


VICE поделились видео с исследователями из Рочестерского технологического института (RIT) в Нью-Йорке, которые считают, что это действительно был deepfake. Ideaz Factory отказался делиться дополнительной информацией об используемой технологии, но Саниат Джавид Сохраварди из RIT говорит, что «судя по срокам их работы, они использовали код Vid2vid от Nvidia». Единственный другой хорошо известный алгоритм для решения этой задачи — это face2face, приложение, которое использовалось для создания фальшивого видео с участием Барака Обамы.

Однако некоторые зрители все же заметили в видео Тивари небольшую аномалию движений рта. Вишной признает, что технология, которую использует его фирма, в настоящее время недостаточно развита, чтобы синтетически генерировать голос, используя алгоритмы. Но у них есть планы по масштабированию «позитивной» фальшивой кампании Тивари до предстоящих выборов.

Тарунима Прабхакар, соучредитель Tattle, гражданского технологического проекта, который строит архив с возможностью поиска по контенту, распространяемому в WhatsApp, говорит: «Проблема с «позитивным» предвыборным ходом кампании заключается в том, что они выпускают джина из бутылки».

Пратик Синха, основатель AltNews, индийского веб-сайта, который проверяет заявления и утверждения, сделанные в социальных сетях, не смог определить, что видео Тивари было подделкой: «Это опасно. Впервые я увидел что-то подобное в Индии». Однако Синха считает, что запрет поддельных видеороликов с участием политиков по примеру США не будет работать в Индии, где кампании начнут обслуживать теневые фирмы. В октябре губернатор Калифорнии Гэвин Ньюсом подписал два законопроекта против deepfake. Первый делает незаконным размещение любых видео с манипуляциями в политических целях, а второй позволит жителям штата подать в суд на того, кто использует технологию в порнографическом видео.

См. также: «Исследование показало, что 96% дипфейков в интернете — это порно с известными женщинами или бывшими подругами


Вишной считает, что должна быть развернута государственная политика в отношении дезинформации в целом, а путь противодействия негативному мошенничеству заключается в проведении информационных кампаний.

В настоящее время гиганты Кремниевой долины разрабатывают технологии, направленные на борьбу с deepfake. Так, в сентябре Facebook совместно с Microsoft и коалицией «Партнёрства по искусственному интеллекту во благо людей и общества», а также научными работниками из нескольких университетов объявили конкурс на разработку технологии распознавания deepfake. А Google в сотрудничестве с компанией Jigsaw (бывшей Google Ideas) уже выпустила датасет, в который вошло более трех тысяч таких видео.

Между тем в Китае любую публикацию заведомо ложной информации, в том числе deepfake, сделали уголовным преступлением. Закон вступил в силу 1 января. Согласно новым нормам, все deepfakes нужно будет отмечать специальной пометкой, которая будет предупреждать пользователей о том, что это ненастоящая новость.

См. также:

© Habrahabr.ru