Deepfake делает уязвимой идентификацию по лицу
Идентификация по лицу — это удобно, но вот насколько это надежно?
Мобильные устройства используют технологию распознавания лиц, чтобы помочь пользователям быстро и безопасно разблокировать свои телефоны, совершить финансовую транзакцию или получить доступ к медицинским записям. Но технологии распознавания лиц уязвимы для атак на основе технологии deepfake. К такому выводу пришли ученые Пенсильванского государственного колледжа информационных наук и технологий.
Исследователи обнаружили, что большинство интерфейсов, которые используют проверку «живого лица» — технологию распознавания, использующую компьютерное зрение для подтверждения присутствия живого пользователя, — не всегда обнаруживают подделки: фотографии или видео людей, сделанные так, чтобы они выглядели как живые.
Логика взлома
Исследование, которое было представлено на симпозиуме по безопасности USENIX является первой систематической проверкой безопасности технологии «живого лица».
Ученые разработали платформу для атаки на основе deepfake под названием LiveBugger. Они оценили шесть ведущих коммерческих интерфейсов проверки «живого лица». По словам исследователей, любые уязвимости в этих продуктах могут быть унаследованы другими приложениями, которые их используют, что потенциально угрожает миллионам пользователей.
Используя поддельные изображения и видео LiveBugger попытался обмануть методы проверки лиц в приложениях, которые устанавливают личность пользователя. LiveBugger путем анализа статических или видеоизображений лиц, прослушивания голосов и измерения скорости реакции создает высоковероятный портрет пользователя.
Исследователи обнаружили, что четыре наиболее распространенных метода проверки можно обойти.
Ученые предлагают методы, повышающие безопасность. По мнению исследователей нельзя использовать для идентификации статическое изображение лица пользователя и сопоставление движений губ с голосом пользователя. Их слишком легко подделать.
Исследователи сообщили о своих выводах поставщикам, чьи приложения использовались в исследовании, причем один из них уже объявил о своих планах провести проверку технологии deepfake для устранения возникающей угрозы.