Правозащитные организации из 90 стран призвали Apple не добавлять анализ фотографий CSAM в iOS 15

fbimg.php?img=https%3A%2F%2Fwww.iphones.

Международная коалиция, состоящая из более чем 90 политических и правозащитных групп опубликовала открытое письмо, в котором призвала Apple отказаться от интеграции анализа фотографий CSAM в свои продукты.

Хотя эти возможности предназначены для защиты детей, мы обеспокоены, что они будут использоваться для цензуры общения. Такой подход может привести к катастрофическим последствиям.

Отрывок из письма.

В публикации также содержится критика новых функций iMessage для семейных аккаунтов. Кто пропустил, напомним — если ребёнку на iPhone будет приходить сообщения с обнажёнными фотографиями, iMessage будет автоматически их размывать.

А родителям поступят уведомление, о том,  что к ребёнку на телефон пришли такие снимки. Просмотреть такие фото ребёнок может только с подтверждения родителей.

Так вот, критикующие стороны считают, что это может усугубить взаимоотношение детей с родителями, а также помешать тем, кто использует такие изображения в образовательных целях.

Некоммерческая организация Center for Democracy & Technology (CDT) опасается, что шансы CSAM предоставить бэкдор политикам для осуществления репрессий слишком велики.

Как только CSAM будет встроена в большинство iPhone, органы власти в некоторых странах однозначно попытаются заставить Apple осуществлять поиск «неугодного» контента и учётные записи «неугодных» лиц.

В данном случае речь идёт не про поиск фотографий, на которых изображено насилие над детьми.

Большинство правозащитных групп, подписавших письмо, находятся в Индии, Мексике, Германии, Аргентине, Гане и Танзании.

Также поддержку проявили: Американский союз гражданских свобод, Electronic Frontier Foundation, Access Now, Privacy International и Tor Project.

Apple заявляет, что ни при каких обстоятельствах не будет давать доступ к технологии NeuralHash и CSAM третьим лицам. [MacRumors]

©  iphones.ru