Евросоюз хочет ограничить использование ИИ и систем распознавания лиц в угоду приватности
Под запрет попадёт целый список вариантов использования ИИ, которые чиновники сочтут «высокорисковыми». Среди них — управление критически важной инфраструктурой стран Евросоюза, приём абитуриентов в колледжи и обработка заявок на кредиты. Применение ИИ к вариантам из списка будет тщательно отслеживаться. Планируется разработать особые стандарты для внедрения и использования ИИ в этих случаях.
Евросоюз известен тем, что активно борется за права своих граждан, в т.ч. за их приватность, и всячески ограничивает чрезмерную власть крупных технологических компаний, пытаясь избежать потенциально опасных последствий применения новых технологий. Можно вспомнить «Генеральный регламент о защите персональных данных» (GDPR) — постановление, с помощью которого члены Евросоюза усиливают и унифицируют защиту персональных данных всех граждан, а также ограничивают экспорт данных из ЕС.
Также пару лет назад ЕС подготовил законопроект «о защите человека от ИИ», упирая на то, что общество может что-то выиграть от технологий лишь в случае полного к ним доверия, ичто системы ИИ должны быть «человекоцентричными, нацеленными целиком и полностью на то, чтобы служить человечеству и общему благу и на то, чтобы способствовать совершенствованию условий человеческого существования и его свободе».
По словам Маргреты Вестагер, исполнительного вице-президента Еврокомиссии, предлагаемые правила регулирования затрагивают угрозы определённых вариантов использования ИИ, направленные на людей и всё сообщество в целом. Она утверждает, что ЕС первым на планете предложил ввести подобную юридическую платформу.
Полицейским планируется запретить использовать «удалённые системы биометрической идентификации» в реальном времени, за исключением таких случаев, как поиск похищенных детей или предотвращение терактов, а также поиск преступников определённого рода.
Также планируется обязать компании, предоставляющие услуги, связанные со взаимодействием людей с ИИ, чётко обозначать те случаи, когда человек сталкивается с ботом — например, в чате. Сходным образом создатели «дипфейков» и прочих подобных медиа должны будут недвусмысленно отмечать этот факт.
По словам Жюльена Корнебиза, подобный законопроект не обязательно будет иметь такие же последствия, как GDPR, хотя бы потому, что ИИ в нём определён слишком широко. Он описывает ИИ, как движущуюся мишень, и говорит, что наши телефоны сегодня делают такие вещи, которые 20 лет назад определённо можно было отнести к «ИИ». Поэтому есть риск, что новые правила либо запутаются в определениях, либо быстро устареют.