Эксперт предложил маркировать водными знаками сгенерированные нейросетями результаты

Профессор компьютерных наук Калифорнийского университета в Беркли Хани Фарид заявил что компаниям стоит помечать водными знаками сгенерированные при помощи искусственного интеллекта результаты. Учёный и его коллега Софи Найтингейл отмечают, что средний человек не может отличить изображение реального человека от образа, созданного нейросетями.

Сгенерированные Midjorney изображения ареста Дональда Трампа

Сгенерированные Midjorney изображения ареста Дональда Трампа

Исследователи поясняют, что в будущем будет несложно производить видео, в которых генеральный директор объявит о значительном снижении прибыли компании, приведя к миллиардным потерям доли на рынке. При помощи таких средств можно создавать контент, где лидер страны станет угрожать военными действиям, что может спровоцировать геополитический кризис.

Технологии производства поддельных видео с реальными людьми становятся всё более доступными, подчёркивает Фарид. Вторичным последствием распространения подобного контента учёный называет снижение доверия к подлинным видео и материалам.

По словам исследователя, существуют разумные и технологически осуществимые меры смягчений злоупотреблений, связанных с использование генеративного ИИ. Как учёный-компьютерщик, специализирующийся на криминалистике изображений, Фарид считает ключевым методом — нанесение водяных знаков.

Маркировка документов и иных предметов имеет глубокую история. В настоящий момент архив стоковых изображений Getty Images содержит огромное количество изображений, помеченных водяным знаком. Этот метод также используют для защиты цифровых прав. В ряде случаев водяные знаки незаметны для пользователей.

Изображения среднего разрешения содержат миллионы пикселей, поэтому в водяной знак можно встроить дополнительную информацию, включая уникальный идентификатор. Такая маркировка применима к аудио и видео, уверен Фарид.

В случае генеративных систем ИИ водяными знаками нужно помечать все обучающие данные, после чего созданный контент будет содержать маркировку.

OpenAI экспериментирует с системой нанесения водяных знаков в чат-боте ChatGPT. Методы заключаются в маркировке генерируемых результатов или создании софта для записи и подтверждения оригинальности контента. Например, специализированное приложение камеры может криптографически подписывать видео при записи.

Coalition for Content Provenance and Authentication выпустила открытую спецификацию, которая применима для поддержки последнего подхода, однако актуальна только для аудиовизуального контента, но не для текстов. К этим усилиям присоединяются Adobe, Microsoft, Intel и многие другие компании.

Фарид признаётся, что все эти меры предотвратят не все формы злоупотреблений, но обеспечат некоторую защиту. Он добавил, что любые меры безопасности должны постоянно адаптироваться и совершенствоваться, поскольку злоумышленники находят новые способы вредного использования передовых технологий. 

© Habrahabr.ru