Apple сканирует фотографии в iCloud на предмет жестокого обращения с детьми
Apple в постоянном режиме с помощью специального программного обеспечения проводит автоматический скрининг всего контента, загружаемого в облачный сервис iCloud пользователями. ПО анализирует данные на предмет сексуального насилия над несовершеннолетними. Об этом рассказала Джейн Хорват, старший директор Apple по вопросам конфиденциальности, на выставке CES 2020.
«Apple использует технологию сопоставления изображений, чтобы помочь найти и сообщить о материалах о сексуальном насилии над детьми. Подобно спам-фильтрам в электронной почте наши системы используют электронные подписи для поиска подозрительных изображений. Учетные записи, которые используются для хранения таких фотографий, нарушают наши условия обслуживания и подлежат незамедлительному удалению», — пояснила представитель компании.
Джейн Хорват не уточнила, как именно анализируется облачный контент пользователей в Apple. Многие IT-компании, например, Facebook, Twitter и Google, используют систему PhotoDNA от Microsoft, в которой части анализируемых изображений сравниваются с базой данных ранее идентифицированных изображений.
В самом конце 2019 года Apple внесла изменения в свою политику конфиденциальности, добавив, что может осуществлять предварительный просмотр или сканирование загруженного контента для выявления потенциально незаконного контента, в том числе контента с сексуальным насилием.
Ранее в августе 2019 года Apple приостановила программу оценки качества Siri, в которой речь пользователей прослушивали реальные люди.