Эксперты бьют тревогу. Анализ фотографий на iPhone лишит пользователей конфиденциальности, но есть НО

fbimg.php?img=https%3A%2F%2Fwww.iphones.

Вчера Apple объявила, что в iOS 15 появится алгоритм NeuralHash для определения жестокого обращения с детьми на фото и видео (CSAM).

Исследователь в области безопасности Мэтью Грин из Университета Джона Хопкинса назвал CSAM «очень плохой идеей».

Он считает, что вскоре государства будут требовать от технологических компаний анализа всего контента на устройствах своих пользователей. Грин сравнил CSAM с «инструментами, применяемыми в репрессивных режимах».

Я не поддерживаю жестокое обращение с детьми или терроризм. Но считаю, что каждый пользователь должен быть уверен в том, что контент на его устройстве остаётся в безопасности и никуда не уходит.

Шифрование, которым так хвалится Apple, — это мощный инструмент, но он не может обеспечить по-настоящему надёжную конфиденциальность, одновременно анализируя каждое изображение на устройстве.

These are bad things. I don«t particularly want to be on the side of child porn and I«m not a terrorist. But the problem is that encryption is a powerful tool that provides privacy, and you can«t really have strong privacy while also surveilling every image anyone sends.

— Matthew Green (@matthew_d_green) August 5, 2021

Алек Баффет, тоже исследователь в области безопасности, ранее работавший в Facebook, считает внедрение CSAM и алгоритма сканирования изображений NeuralHash «огромным шагом назад в плане конфиденциальности».

Apple идёт по пути внедрения массовой слежки. Кажется, совсем скоро мир из книги Джорджа Оруэлла »1984» станет нашей реальностью.

And if you«re wondering whether Google scans images for child abuse imagery, I answered that in the story I wrote eight years ago: it«s been doing that **SINCE 2008**. Maybe all sit down and put your hats back on. pic.twitter.com/ruJ4Z8SceY

— Charles Arthur (@charlesarthur) August 5, 2021

Алек опасается ложных срабатываний, если хеши некоторых фотографий совпадут с теми, которые попадают под случаи CMSA.

Хотя на этот счёт Apple заявляет о высокой точности работы алгоритма и наличии ручной проверки.

Стоит отметить, что похожие алгоритмы для выявления CSAM используются Google, Twitter, Microsoft и Facebook. Однако они не выходят на уровень анализа снимков в персональной галерее. [MacRumors]

©  iphones.ru