В Alphabet разработали инструмент для борьбы с фейковыми фото

q8iugatkrekxphihft1crlos0ku.png
Источник: Jigsaw

Компания Jigsaw, технологическое подразделение Google, выпустила инструмент под названием Assembler, который должен помочь в проверке подлинности изображений. Как указано в описании платформы, Assembler объединяет несколько методов обнаружения манипуляций над изображением, включая детектор, который определяет дипфейки, созданные с помощью нейросети StyleGAN.

Как пишут в МТИ, проверять подлинность фотографий становится всё сложнее, особенно с ростом использования искусственного интеллекта в создании фейков. Это позволяет дезинформации распространяться быстрыми темпами и в крупных масштабах.

«Обнаружение поддельных изображений — трудоёмкое занятие для фактчекеров и журналистов. Для проверки подлинности изображений им приходится использовать множество различных инструментов и методов. Например, группа исследователей Bellingcat использует более 25 инструментов и сервисов для проверки подлинности фотографий, видео и веб-сайтов. Фактчекеры и журналисты нуждаются в способе, который опередит новейшие методы манипуляции с контентом и упростит проверку подлинности», — утверждает в своем блоге руководитель Jigsaw Джаред Коэн.

Как поясняют в Jigsaw, отдельные инструменты часто не могут точно определить различные типы манипуляций с изображением. Например, детекторы, предназначенные для идентификации копирования и вставки, обычно не могут обнаружить изменение яркости изображения, и наоборот.

«Чтобы решить эту проблему, мы создали экспериментальный детектор, который обучен определять признаки сразу нескольких типов. Поэтому его результаты в среднем более точны, чем у любого отдельного детектора», — поясняют в Jigsaw.

Assembler оснащён семью детекторами, каждый из которых разработан для определения конкретной манипуляции с изображением. Пять детекторов, которые были разработаны сотрудниками Калифорнийского университета в Беркли и Неаполитанского университета в Италии, могут определять различные цветовые несоответствия и аномалии, распознавать фотомонтаж и находить клонированные объекты на фото. Два других инструмента определяют дипфейки, созданные нейросетями. Эти инструменты — разработка самой Jigsaw.

Assembler, указывают в МТИ, — хороший шаг в борьбе с дипфейками, однако он не охватывает многие существующие методы изменения контента, в том числе те, которые используются для манипуляций с видео. Команда Jigsaw планирует добавлять и обновлять различные методы обнаружения манипуляций в Assembler по мере его развития.

«Эксперты рекомендуют, чтобы такие технологические гиганты, как Facebook и Google, включали подобные инструменты обнаружения дипфейков непосредственно в свои платформы, что позволит проверять подлинность изображений в режиме реального времени, сразу же, когда фотографии и видео будут загружены», — считают в МТИ.

Сейчас разработка Jigsaw проходит тестирование в фактчекинговых организациях и СМИ, например, Agence France-Presse, Animal Politico и Rappler. При этом, как указывает газета The New York Times, Assembler не планируют выпускать в доступ для широкого круга пользователей.

Ранее Jigsaw разработала платформу, которая помогает выявить скоординированные целенаправленные действия в кампаниях дезинформации в интернете. База данных платформы Jigsaw предоставляет информацию о людях, которые стоят за той или иной кампанией, и о выбранной ими тактике. Jigsaw вместе с исследовательской лабораторией «Атлантического совета» Digital Forensic Research Lab составила список из около 60 случаев дезинформации, которые удалось распознать на основе 700 расследований, которые лаборатория опубликовала в течение последних пяти лет. Как указала Эмерсон Брукинг, научный сотрудник лаборатории, цель разработки не в том, чтобы создать базу данных, а в том, чтобы определить общие закономерности в работе дезинформационных кампаний, которые потом помогут в их обнаружении.

В начале января также появилась информация о том, что компания Apple сканирует все фотографии, которые хранятся в облачном сервисе iCloud, с помощью ПО, предназначенного для определения жестокого обращения с детьми, в первую очередь сексуального насилия. Как указывала газета The Telegraph, алгоритм, разработанный Apple, выявляет в изображениях детали, характерные для порнографического контента.

© Habrahabr.ru