В ЕС, Китае и США рассматривают законы, обязывающие компании раскрывать личности AI-разработчиков

dab58e336fcb9afe03d079450d12fd68

В последние дни активизировались правительственные и общественные организации ЕС, Китая и США, которые хотели бы принять участие в регулировании развития и распространения искусственного интеллекта. Эту активность объясняют заботой о безопасности. Но издание Semafor заметило одну общую деталь: многие законодательные инициативы предполагают раскрытие личностей специалистов, работающих над AI-проектами.

Предложения, которые озвучивают сейчас в Европейском союзе, Китае и США, предполагает, что компании будут раскрывать информацию о том, кто разрабатывает и обучает их алгоритмы. Сторонники такого решения утверждают, что оно способствует прозрачности: предоставляя информацию о том, кто создаёт программное обеспечение, компании помогут выявлять потенциальные баги.

Критики же опасаются, что это решение может открыть дверь для преследований и шпионажа;, а проблемы конфиденциальности, которые последуют за раскрытием личностей разработчиков, перевесят преимущества прозрачности.

В США представили «основу» федеральной политики в области искусственного интеллекта. ​​Один из пунктов предполагает идентификацию тех, кто обучал алгоритмы. Кроме того, от компаний могут потребовать выдавать независимым экспертам разрешения проверять и тестировать новые технологии искусственного интеллекта перед публичным выпуском. 

Интернет-регулятор Китая опубликовал свой проект руководящих принципов, которым должны следовать поставщики AI-продуктов. В нём говорится, что сгенерированный AI контент должен отражать основные ценности социализма и не подрывать государственную власть. Один из принципов утверждает, что компании должны «уточнять и раскрывать участвующие группы людей, случаи и способы использования своих услуг;, а также принимать соответствующие меры, чтобы пользователи не слишком полагались на созданный контент или потворствовали ему».

В Евросоюзе более 50 экспертов и учреждений в области искусственного интеллекта и компьютерных наук подписали меморандум, призывающий чиновников ЕС расширить свой Закон об AI. Среди предлагаемых мер есть и идентификация разработчиков.

Semafor приводит мнение Мэтта Миттельстэдта, AI-эксперта в Центре Mercatus Университета Джорджа Мейсона. Тот считает, что хотя прозрачность AI-систем важна, раскрытие личностей разработчиков может привести к негативным последствиям.

За ними могут начать охотиться компании, в том числе из других стран. А если кто-то будет не согласен с тем, как запрограммирован чат-бот, он может использовать информацию о его разработчиках для преследования или запугивания. После принятия подобных законов многие инженеры могут вообще не захотеть работать над AI-проектами. Тем более что остаётся открытым вопрос, должны ли разработчики нести ответственность за ложный, вредоносный или оскорбительный контент, созданный искусственным интеллектом.

© Habrahabr.ru