В ЕС, Китае и США рассматривают законы, обязывающие компании раскрывать личности AI-разработчиков
В последние дни активизировались правительственные и общественные организации ЕС, Китая и США, которые хотели бы принять участие в регулировании развития и распространения искусственного интеллекта. Эту активность объясняют заботой о безопасности. Но издание Semafor заметило одну общую деталь: многие законодательные инициативы предполагают раскрытие личностей специалистов, работающих над AI-проектами.
Предложения, которые озвучивают сейчас в Европейском союзе, Китае и США, предполагает, что компании будут раскрывать информацию о том, кто разрабатывает и обучает их алгоритмы. Сторонники такого решения утверждают, что оно способствует прозрачности: предоставляя информацию о том, кто создаёт программное обеспечение, компании помогут выявлять потенциальные баги.
Критики же опасаются, что это решение может открыть дверь для преследований и шпионажа;, а проблемы конфиденциальности, которые последуют за раскрытием личностей разработчиков, перевесят преимущества прозрачности.
В США представили «основу» федеральной политики в области искусственного интеллекта. Один из пунктов предполагает идентификацию тех, кто обучал алгоритмы. Кроме того, от компаний могут потребовать выдавать независимым экспертам разрешения проверять и тестировать новые технологии искусственного интеллекта перед публичным выпуском.
Интернет-регулятор Китая опубликовал свой проект руководящих принципов, которым должны следовать поставщики AI-продуктов. В нём говорится, что сгенерированный AI контент должен отражать основные ценности социализма и не подрывать государственную власть. Один из принципов утверждает, что компании должны «уточнять и раскрывать участвующие группы людей, случаи и способы использования своих услуг;, а также принимать соответствующие меры, чтобы пользователи не слишком полагались на созданный контент или потворствовали ему».
В Евросоюзе более 50 экспертов и учреждений в области искусственного интеллекта и компьютерных наук подписали меморандум, призывающий чиновников ЕС расширить свой Закон об AI. Среди предлагаемых мер есть и идентификация разработчиков.
Semafor приводит мнение Мэтта Миттельстэдта, AI-эксперта в Центре Mercatus Университета Джорджа Мейсона. Тот считает, что хотя прозрачность AI-систем важна, раскрытие личностей разработчиков может привести к негативным последствиям.
За ними могут начать охотиться компании, в том числе из других стран. А если кто-то будет не согласен с тем, как запрограммирован чат-бот, он может использовать информацию о его разработчиках для преследования или запугивания. После принятия подобных законов многие инженеры могут вообще не захотеть работать над AI-проектами. Тем более что остаётся открытым вопрос, должны ли разработчики нести ответственность за ложный, вредоносный или оскорбительный контент, созданный искусственным интеллектом.