Apple сканирует электронные письма в iCloud на предмет CSAM еще с 2019 года

c28fbfc5c7c7256ce1d04491511793a9.jpg

Apple подтвердила изданию 9to5mac, что уже несколько лет проверяет исходящие и входящие письма по почте iCloud на наличие изображений жестокого обращения с детьми (CSAM). В Apple также указали, что проводят ограниченное сканирование других данных.

Журналист издания задал вопрос относительно довольно странного заявления Эрика Фридмана, руководителя Apple по борьбе с мошенничеством: последний заявил, что Apple является «самой большой платформой для распространения детского порно». Вскоре последовало разъяснение, что корпорация не проверяет фотографии iCloud или резервные копии iCloud. Но как Фридман мог обладать такими сведениями, если компания не сканировала фотографии iCloud?

Также есть несколько других признаков того, что Apple должна была проводить какое-то сканирование CSAM. Например, в архивной версии страницы Apple, посвящённой безопасности детей, говорится следующее:

«Компания Apple стремится защищать детей во всей нашей экосистеме, где бы ни использовались наши продукты, и мы продолжаем поддерживать инновации в этой области. Мы разработали надёжные средства защиты на всех уровнях нашей программной платформы и во всей цепочке поставок. В рамках этого обязательства Apple использует технологию сопоставления изображений, чтобы помочь найти и сообщить об эксплуатации детей. Подобно фильтрам спама в электронной почте, наши системы используют электронные подписи для поиска подозрений в эксплуатации детей. Мы проверяем каждое совпадение с помощью индивидуальной проверки. Учётные записи, содержащие материалы, связанные с эксплуатацией детей, нарушают наши правила и условия обслуживания, и все учётные записи, в которых мы обнаружим такие материалы, будут отключены.»

Кроме того, Джейн Хорват, главный сотрудник Apple по вопросам конфиденциальности, заявила на технической конференции в январе 2020 года, что компания использует технологию скрининга для поиска незаконных изображений. Компания заявляет, что отключает учетные записи, если обнаруживает доказательства эксплуатации детей, хотя метод обнаружения остается неизвестным.

Тем не менее, Apple подтвердила изданию, что с 2019 года она проверяет исходящую и входящую почту iCloud на наличие вложений CSAM. Электронная почта не шифруется, поэтому сканирование вложений при прохождении почты через серверы Apple было бы тривиальной задачей.

Apple также указала, что проводится некоторое ограниченное сканирование других данных, но не конкретизировала каких. Но компания уточнила, что объем этих данных очень мал, следовательно, «другие данные» не включают резервные копии iCloud.

Хотя заявление Фридмана звучит так, будто оно основано на достоверных данных, теперь ясно, что это не так. Мы понимаем, что общее количество отчетов, которые Apple ежегодно отправляет в CSAM, измеряется сотнями, а это означает, что сканирование электронной почты не предоставит никаких доказательств крупномасштабной проблемы на серверах Apple.

Объяснение, вероятно, кроется в том факте, что другие облачные сервисы сканировали фотографии на предмет CSAM, а Apple — нет. Видимо, Эрик Фридман сделал такие выводы, основываясь на том, что, так как другие компании отключают облака для загрузки CSAM, а iCloud остается открытым для этих фото (ведь технологический гигант не сканирует последние на предмет эксплуатации детей), следовательно, на платформе Apple существует больше CSAM, чем в других сервисах. Скорее всего, Фридман пришёл к таким выводам только исходя из логических размышлений.

Споры по поводу планов Apple по CSAM продолжаются, и два ученых из Принстона заявили, что они создали прототип системы сканирования, основанной на тех же механизмах, что и Apple, но отказались от работы из-за риска неправильного использования данной системы правительством.

© Habrahabr.ru