Похоже, что Apple забыла про функцию сканирования запрещенных фото на iPhone
Прошло больше года с тех пор, как Apple представила функцию, которая автоматически обнаруживает фотографии на iPhone, содержащие сцены с жестоким обращением с детьми (CSAM).
Изначально Apple планировала добавить функцию в iOS 15 к концу 2021 году. Но в итоге компания отложила её запуск после того, как подверглась критике со стороны пользователей, экспертов по безопасности и правозащитных организаций.
В декабре 2021 года Apple удалила все упоминания функции со своего сайта, но представитель компании сообщил, что планы не изменились. С тех пор Apple не комментировала запуск функции.
Apple собиралась сканировать только фотографии, выгружаемые в iCloud. Все операции должны были осуществляться на iPhone. Для сканирования каждый снимок хэшировался, а затем система сравнивала его код с фотографиями, которые содержат сцены с жестоким обращением с детьми.
При многочисленных совпадениях проверять изображения должен был специальный человек. Если бы он подтвердил наличие незаконных фото, то Apple передала бы данные о владельце iPhone в некоммерческую организацию, которая работает в сотрудничестве с правоохранительными органами США. [Macrumors]