В Alphabet разработали инструмент для борьбы с фейковыми фото
Источник: Jigsaw
Компания Jigsaw, технологическое подразделение Google, выпустила инструмент под названием Assembler, который должен помочь в проверке подлинности изображений. Как указано в описании платформы, Assembler объединяет несколько методов обнаружения манипуляций над изображением, включая детектор, который определяет дипфейки, созданные с помощью нейросети StyleGAN.
Как пишут в МТИ, проверять подлинность фотографий становится всё сложнее, особенно с ростом использования искусственного интеллекта в создании фейков. Это позволяет дезинформации распространяться быстрыми темпами и в крупных масштабах.
«Обнаружение поддельных изображений — трудоёмкое занятие для фактчекеров и журналистов. Для проверки подлинности изображений им приходится использовать множество различных инструментов и методов. Например, группа исследователей Bellingcat использует более 25 инструментов и сервисов для проверки подлинности фотографий, видео и веб-сайтов. Фактчекеры и журналисты нуждаются в способе, который опередит новейшие методы манипуляции с контентом и упростит проверку подлинности», — утверждает в своем блоге руководитель Jigsaw Джаред Коэн.
Как поясняют в Jigsaw, отдельные инструменты часто не могут точно определить различные типы манипуляций с изображением. Например, детекторы, предназначенные для идентификации копирования и вставки, обычно не могут обнаружить изменение яркости изображения, и наоборот.
«Чтобы решить эту проблему, мы создали экспериментальный детектор, который обучен определять признаки сразу нескольких типов. Поэтому его результаты в среднем более точны, чем у любого отдельного детектора», — поясняют в Jigsaw.
Assembler оснащён семью детекторами, каждый из которых разработан для определения конкретной манипуляции с изображением. Пять детекторов, которые были разработаны сотрудниками Калифорнийского университета в Беркли и Неаполитанского университета в Италии, могут определять различные цветовые несоответствия и аномалии, распознавать фотомонтаж и находить клонированные объекты на фото. Два других инструмента определяют дипфейки, созданные нейросетями. Эти инструменты — разработка самой Jigsaw.
Assembler, указывают в МТИ, — хороший шаг в борьбе с дипфейками, однако он не охватывает многие существующие методы изменения контента, в том числе те, которые используются для манипуляций с видео. Команда Jigsaw планирует добавлять и обновлять различные методы обнаружения манипуляций в Assembler по мере его развития.
«Эксперты рекомендуют, чтобы такие технологические гиганты, как Facebook и Google, включали подобные инструменты обнаружения дипфейков непосредственно в свои платформы, что позволит проверять подлинность изображений в режиме реального времени, сразу же, когда фотографии и видео будут загружены», — считают в МТИ.
Сейчас разработка Jigsaw проходит тестирование в фактчекинговых организациях и СМИ, например, Agence France-Presse, Animal Politico и Rappler. При этом, как указывает газета The New York Times, Assembler не планируют выпускать в доступ для широкого круга пользователей.
Ранее Jigsaw разработала платформу, которая помогает выявить скоординированные целенаправленные действия в кампаниях дезинформации в интернете. База данных платформы Jigsaw предоставляет информацию о людях, которые стоят за той или иной кампанией, и о выбранной ими тактике. Jigsaw вместе с исследовательской лабораторией «Атлантического совета» Digital Forensic Research Lab составила список из около 60 случаев дезинформации, которые удалось распознать на основе 700 расследований, которые лаборатория опубликовала в течение последних пяти лет. Как указала Эмерсон Брукинг, научный сотрудник лаборатории, цель разработки не в том, чтобы создать базу данных, а в том, чтобы определить общие закономерности в работе дезинформационных кампаний, которые потом помогут в их обнаружении.
В начале января также появилась информация о том, что компания Apple сканирует все фотографии, которые хранятся в облачном сервисе iCloud, с помощью ПО, предназначенного для определения жестокого обращения с детьми, в первую очередь сексуального насилия. Как указывала газета The Telegraph, алгоритм, разработанный Apple, выявляет в изображениях детали, характерные для порнографического контента.