Где тут криминал? Чем опасны синтетические медиа и кто с ними борется

С развитием искусственного интеллекта появились и синтетические медиа. Это интернет-ресурсы или отдельные публикации, созданные с помощью AI-технологий. Опасность в том, что для производства таких материалов можно использовать дипфейки и генерировать ложный контент.

22712657ee7e933705772555d6ef4bd8.jpg

Всем привет! Это Лера из TEAMLY. Заметила, что мы стали свидетелями рождения нового явления — медиа-криминалистики. Как когда-то люди не могли осмыслить серийные преступления и начали изучать образ мысли таких преступников, изучать их почерк. Или, например, преступления из сферы искусства, когда их расследовали по логике обычной кражи. А потом сформировался целый отдел ФБР (подробнее в книге Роберта Уиттмана и Джона Шиффмана «Операция «Шедевр». Спецагент под прикрытием в мире искусства»). А сейчас вот специально обученные люди пристально смотрят в глаза, сравнивают оттенки и пытаются предотвратить появление дипфейков. Кто, как и зачем это делает — читайте в статье. 

Не нужно ждать инфоповода, чтобы выпустить новость, которая взорвет интернет. Достаточно дать задание нейросети и вот уже видеоролик или фотография набирают миллионы просмотров. Такие возможности не упустят мошенники и просто недобросовестные СМИ, ведь фейки способны влиять на общественное мнение и действия людей. Как ответ на вызов возникла новая область криминалистики — медиа-криминалистика. Рассказываем, что это и какую пользу несет обществу.

Медиа-криминалистика: как появилась и чем занимается

Эта область знаний изучает манипуляции и правонарушения с помощью синтетических медиа. Например, помогает выявлять вредоносный контент и бороться с дезинформацией в СМИ. В частности, медиа-криминалистика занимается случаями неэтичного или преступного применения технологии дипфейков.

Термин «дипфейк» происходит от слов «deep learning» — глубокое обучение и «fake» — фальшивый. Технология создает реалистичные изображения людей в искусственных обстоятельствах. Например, дипфейк может поместить Роберта Паттинсона на съемочную площадку «Титаника» или показать вашего соседа по подъезду в компании Илона Маска. Конечно, такой контент будет забавным, но есть множество примеров, когда дипфейки в СМИ вызвали серьезные последствия. 

«Задержание» Дональда Трампа. В марте 2023 года интернет взорвали фотографии ареста экс-президента США. Через пару дней выяснилось, что изображения сгенерированы нейросетью Midjourney. Но к этому времени они успели разлететься по социальным сетям и новостным сайтам. 

Журналист Элиот Хиггинс, который создал фейковые фото с помощью нейросети, не ожидал такого интереса аудитории — за два дня пост набрал 5 миллионов просмотров

Журналист Элиот Хиггинс, который создал фейковые фото с помощью нейросети, не ожидал такого интереса аудитории — за два дня пост набрал 5 миллионов просмотров

Фейковые фото Тейлор Свифт. Популярная американская певица пострадала от дипфейков в январе 2024 года. В заблокированной в России социальной сети Х появились изображения непристойного характера, созданные искусственным интеллектом. Через 17 часов публикацию удалили, но она набрала десятки миллионов просмотров и репостов. 

Политические провокации. Эксперты беспокоятся, что дипфейки могут деструктивно влиять на политические процессы в мире. Так, в отчете Всемирного экономического форума говорится, что искусственный контент может воздействовать на избирателей. В 2024 году во многих странах состоятся выборы, в том числе в США, России и Индии. Эксперты считают, что фейковые аудио и видеозаписи могут использовать для манипуляций общественным мнением во время агитационных кампаний. 

С помощью искусственного интеллекта мошенники совершают и другие преступления. Например, обходят системы аутентификации в банках, обманывают службы безопасности и крадут деньги со счетов. В 2020 году топ-менеджер филиала крупной японской компании перевел мошенникам $35 миллионов. Распоряжение отправить деньги он получил от преступников, которые создали дипфейк с голосом руководителя корпорации. 

Представители власти, ученые и разработчики из разных стран ищут способы борьбы с негативным влиянием синтетических медиа и дипфейков. Вот три интересных кейса из этой сферы. 

Лаборатория медиа-криминалистики Университета Буффало

Министерство внутренней безопасности США совместно с Google и другими организациями создали исследовательскую лабораторию. Проект существует уже более 20 лет на базе Университета Буффало. Ученые занимаются судебно-медицинской экспертизой цифровых носителей: фотографий, видео и аудиозаписей. В работе используют методы компьютерного зрения, машинного обучения, медицинской визуализации, а также робототехнику.

Лаборатория ежегодно публикует по несколько исследований: например, как ученые искали и нашли способы обнаружения дипфейков. Исследователи понимают, что мошенники тоже не сидят сложа руки, поэтому отдельным направлением работы в лаборатории сделали контркриминалистику. Это область знаний, которая изучает противодействие методам криминалистики. То есть команда не только борется с существующими манипуляциями контентом, но и прогнозирует возможные правонарушения. 

Методы выявления дипфейков:  

  • Отражение в зрачках. Помогает определять портретные дипфейк-фотографии. Алгоритм сравнивает зеркальные блики на роговице глаз. У реального человека узор будет одинаковый, а на фейковых портретах — разный. 

  • Контрастные области. Позволяет находить точки «сращивания» участков фотографии и доказывать, что итоговая картинка собрана из отдельных изображений. 

  • Несоответствие мимических реакций. Сопоставляет мимику дипфейка с естественным движением мышц лица человека и выявляет несоответствия.

Пример из отчета лаборатории — иногда разница в зеркальных бликах видна даже без специальных компьютерных программ 

Пример из отчета лаборатории — иногда разница в зеркальных бликах видна даже без специальных компьютерных программ 

Проекты агентства DARPA

Агентство перспективных исследований в области обороны США (DARPA) с 2019 года разрабатывает программы MediFor и SemaFor. Сервисы помогают автоматически и в больших масштабах анализировать контент в СМИ и выявлять манипуляции. Обе программы борются с фальсификациями и массовой дезинформацией. Разработчики стремятся не просто находить и опровергать дипфейки, которые уже оказались в медиапространстве. Главная цель — пресекать генерацию и распространение ложного контента в самом начале. 

Платформа MediFor. Распознает сгенерированные видео с помощью сопоставления физиологических данных. Например, алгоритмы видят неестественную мимику или частоту морганий. Также программа выявляет несоответствие контуров лица и тела, что говорит о синтетическом происхождении видео. 

Программа SemaFor. Анализирует структуру кадра и определяет дипфейки по несоответствию деталей изображения: фон, оттенки цветов одежды, мелкие аксессуары. 

На синтетических изображениях могут отсутствовать особенности мимики, характерные для человека: например, морщины или носогубные складки 

На синтетических изображениях могут отсутствовать особенности мимики, характерные для человека: например, морщины или носогубные складки 

Детектор дипфейков FaceForensics++


В проекте участвуют компании Google, Jigsaw и медиа-криминалист из Италии Луиза Вердолива. В программу загрузили большой датасет синтетических видео и фотографий, созданных популярными нейросетями. Затем на основе этих данных алгоритм обучился распознавать дипфейки. Разработчики отмечают, что детектор не дает гарантированного результата. Пока он может определять только контент, созданный некоторыми популярными программными пакетами.

Медиа-криминалистика и закон: первые шаги к созданию правовой базы

Методы медиа-криминалистики способны обнаружить правонарушения с использованием синтетического контента. Какие это будет иметь юридические последствия — зависит от действующих законов. А вот здесь как раз пробел: во всем мире еще не сформировалась правовая база в области применения AI-технологий в медиа.

Быстрое развитие искусственного интеллекта беспокоит глав IT-компаний, инженеров и ученых. В апреле 2023 года Илон Маск, Стив Возняк, Эндрю Янг и тысячи других экспертов опубликовали письмо, в котором призывают приостановить обучение нейросетей мощнее GPT-4. По мнению авторов обращения, пауза необходима, чтобы сформировать стандарты применения ИИ, законодательство и контролирующие органы. 

Заметные шаги в разработке законов были сделаны еще в 2022 году:  

  • Евросоюз принял Усиленный кодекс по борьбе с дезинформацией в медиа. Документ подписали многие крупные компании, в том числе Google, Microsoft и некоторые соцсети. Они обязуются снижать влияние ложного контента на аудиторию. 

  • США разрабатывают законопроект по противодействию дезинформации с помощью дипфейков. Предполагается создание специальной комиссии, которая займется борьбой с синтетическим контентом. 

В российских законах понятия «дипфейк» пока не существует, как и отдельной ответственности за распространение синтетического контента. Суд рассматривает только последствия таких действий. Например, если фейковое изображение порочит честь, достоинство или деловую репутацию гражданина, может наступить ответственность за клевету по статье 128.1 УК РФ.

Криминалистика и управление знаниями: как возникают новые методы

Напоследок небольшой экскурс в историю. Криминалистика знает несколько случаев, когда новые области этой науки возникали благодаря развитию технологий. Так что появление медиа-криминалистики — событие не уникальное. Например, инструменты управления знаниями дали расследованиям несколько передовых методов. 

Профилирование. В 1980-х годах специальный агент ФБР Джон Дуглас начал систематизировать информацию по делам серийных преступников. Собранная база помогала изучать мотивы и действия преступников. Позже Дуглас возглавил особый отдел ФБР по расследованию серийных убийств. 

Базы данных геномной информации. В 1980-х годах был изобретен метод анализа ДНК, который немедленно нашел применение в криминалистике. К концу 1990-х во многих странах существовали базы генетических данных. Они собирали образцы ДНК с мест преступлений, у подозреваемых и осужденных. Это помогло быстрее раскрывать дела и даже завершить расследование по нескольким «глухарям», казавшимся безнадежными. 

База данных по сериям преступлений. С 1970-х журналист-расследователь Томас Харгроув собирал базу отчетов по убийствам. В 2010 году он написал программу, которая находит совпадения в разных делах. Таким образом проект Харгроува помогает полицейским устанавливать связь между преступлениями и объединять их в серии.

Подробнее о том, как систематизировали знания о серийных преступлениях для поисков маньяков, читайте здесь.

Вместо заключения

Любую технологию можно использовать как на благо общества, так и в преступных целях. Бесконтрольное производство синтетического контента может привести к серьезным политическим, экономическим и социальным последствиям. Поэтому можно не сомневаться, что медиа-криминалистика будет активно развиваться в ближайшее время. 

Приходите на вебинар!

Исполнительный директор TEAMLY Владимир Манеров расскажет, какую он выстроил систему для управления кросс-функциональными продуктовыми командами, какие использовал инструменты и как измерял эффективность.

Вебинар пройдет онлайн, 20 февраля в 12:00.

Регистрация тут.

© Habrahabr.ru