В Китае с 15 августа вводятся определённые ограничения на использование генеративного ИИ

Китайские регуляторы, включая Государственный комитет по развитию и реформам КНР и Министерство науки и технологий КНР, выпустили временное постановление об управлении услугами генеративного искусственного интеллекта, указано на сайте Государственной канцелярии интернет-информации КНР (Cyberspace Administration of China или CAC). Опубликованные нормы начнут действовать с 15 августа.

ogcukpnlqzedmv0e2uuhj0ie0po.jpeg

Документ предлагает ряд мер по развитию технологий генеративного ИИ, а также устанавливает основные нормы для поставщиков услуг в этой сфере.

Бум технологий генеративного ИИ создал новые возможности для экономического и социального развития, но также он привёл к проблемам распространения дезинформации и безопасности данных, пишет представитель CAC.

По данным регулятора, нормы направлены на содействие здоровому развитию генеративного ИИ и его стандартных приложений, защите национальной безопасности, общественных интересов, защите прав граждан и юридических лиц.

Руководство Китая будет поощрять инновационные способы применения генеративного ИИ в различных отраслях, а также поддерживать промышленные организации, предприятия, образовательные и исследовательские институты, другие учреждения.

Кроме того, регуляторы будут осуществлять секретный и классифицирующий надзор за предоставлением услуг генеративного ИИ. Постановление требует от поставщиков выполнения обязательств по информационной безопасности в интернете, включая защиту личных данных пользователей.

Представленная версия постановления отличается более мягкими нормами от предварительного проекта, опубликованного в апреле 2023 года. За счёт зарождающейся отрасли Пекин, вероятно, стремится возобновить экономический рост.

Ряд китайских корпораций, включая Alibaba, Baidu и JD.com, разрабатывают собственные версии чат-бота ChatGPT от OpenAI.

Авторы постановления не упоминают в текущей итерации постановления карательные меры за нарушения, включая штрафы в $14 тыс. 

© Habrahabr.ru