Европарламент принял AI Act — первые в мире правила для искусственного интеллекта

aab3648002abae4115fd6d2b6e585182

Европарламент принял закон под названием AI Act, который устанавливает правила и требования для разработчиков моделей искусственного интеллекта. Документ призван обеспечить безопасность, прозрачность, экологичность и этичность использования ИИ в Европе. 

Правила устанавливают риск-ориентированный подход к ИИ и формулируют обязательства для разработчиков и пользователей ИИ в зависимости от уровня риска, который он может создавать. Системы ИИ с неприемлемым уровнем риска для безопасности людей будут строго запрещены. В эту группу войдут, например, системы, использующие подсознательные или целенаправленные манипулятивные методы, эксплуатирующие уязвимости людей или используемые для социальной оценки (классификация людей на основе их поведения, социально-экономического статуса, личных характеристик). 

Парламент также уточнил список практик, запрещённых для искусственного интеллекта. В него вошли:

удалённая биометрическая идентификация, в том числе в общественных местах в реальном времени, с исключением для правоохранительных органов и только после судебного разрешения;

• удалённая биометрическая идентификация, в том числе в общественных местах в реальном времени, с исключением для правоохранительных органов и только после судебного разрешения;

• биометрическая категоризация с использованием чувствительных характеристик (например, пол, раса, этническая принадлежность, гражданство, религия, политическая позиция);

• прогностические полицейские системы (основанные на профилировании, местоположении или прошлом криминальном поведении);

• распознавание эмоций в правоохранительных органах, пограничных службах, на рабочих местах и ​​в учебных заведениях;

• неизбирательное извлечение биометрических данных из социальных сетей или видеозаписей с камер видеонаблюдения для создания баз данных распознавания лиц (нарушение прав человека и права на неприкосновенность частной жизни).

Закон уточняет список ИИ-систем «высокого риска». В соответствии с документом, это системы, которые могут потенциально причинить вред здоровью людей или окружающей среде. Сюда также входят системы искусственного интеллекта, которые используются для влияния на избирателей в политических кампаниях и алгоритмы рекомендаций соцсетей. 

Поставщики и разработчики «высокорискового» ИИ обязаны, в соответствии с законом, провести оценку риска и соответствия, зарегистрировать свои системы в европейской базе данных ИИ, обеспечить высокое качество данных, которые используются для обучения ИИ, обеспечить прозрачность системы и информированность пользователей, а также обязательный надзор со стороны человека и возможность вмешательства в работу системы.

Что касается «низкорискового» ИИ, такого как чат-боты, то его поставщики обязаны информировать пользователей о том, что они взаимодействуют с ИИ, а не с человеком. Для генеративных моделей добавляется ещё одно требование — сообщать пользователям, что контент создан нейросетью.

© Habrahabr.ru