В России отрегулируют отношения человека с роботами и искусственным интеллектом
ИТ в госсекторе
08.02.2021, Пн, 14:43, Мск , Текст: Игорь Королев
Правительство России определило основные подходы к регулированию взаимоотношений в сфере искусственного интеллекта и робототехники. В частности, не допускается использование систем искусственного интеллекта, способных самостоятельно принять решение о нанесении вреда человеку. Кроме того, при взаимодействии с людьми такие системы должны пройти идентификацию. В то же время предлагается избегать усиленного регулирования, которое помешает развитию указанных технологий.
Почему для искусственного интеллекта и робототехники требуется отдельное регулирование
CNews изучил концепцию развития регулирования отношений в сфере технологий искусственного интеллекта и робототехники. Документ был утвержден правительством России, в нем рассматривается период до 2024 г.
Развитие технологий искусственного интеллекта ставит серьезные вызовы перед правовой системой России, системой государственного управления и обществом в целом, говорится в документе. Они обусловлены определенной степенью автономности действия систем ИИ в решении поставленных задач и их неспособностью непосредственно воспринимать этические и правовые нормы, учитывать их при осуществлении каких-либо действий.
Сейчас в стране отсутствует специальное законодательное регулирование, учитывающее специфику применения технологий ИИ и робототехники, однако в ряде стран подобный первичный опыт уже сложился. Авторы документа исходят из того, что для развития технологий ИИ и робототехники необходимо создание регуляторной среды, комфортной для безопасного развития и внедрения указанных технологий, основанной на балансе интересов человека, общества, государства, компаний — разработчиков систем ИИ и робототехники, а также потребителей их товаров, работ и услуг.
Правительство России определило основные подходы к регулированию взаимоотношений в сфере искусственного интеллекта и робототехники. Фото: ru.depositphotos.com
Однако представления об этом балансе существенно разнятся, указывают авторы документы. В связи с этим в концепции остаются открытыми и требующими дальнейшего обсуждения отдельные наиболее спорные вопросы, но при этом документ может служить инструментом для сближения в ближайшие годы интересов человека, общества, государства и бизнеса в рассматриваемой сфере.
Приоритетная цель регулирования искусственного интеллекта и робототехники
Приоритетной целью регулирования отношений в сфере ИИ и робототехники на данном этапе их развития является стимулирование разработки, внедрения и использования таких технологий, создание систем ИИ и робототехники в доверенном и безопасном исполнении, которое будет способствовать достижению высоких темпов экономического роста, повышению благосостояния и качества жизни граждан, обеспечению национальной безопасности и правопорядка, достижению устойчивой конкурентоспособности российской экономики, в том числе лидирующих позиций в мире в области искусственного интеллекта.
В этой связи выделяются три основные задачи, на решение которых должно быть направлено регулирование: создание основ правого регулирования новых общественных отношений, формирующихся в связи с применением систем ИИ и робототехники, имеющих преимущественно стимулирующий характер; определение правовых барьеров, затрудняющих разработку и применением систем ИИ и робототехники в различных отраслях экономики и социальной сфере; формирование национальной системы стандартизации и оценки соответствия в области технологий ИИ и робототехники.
Принципы регулирования отношений в сере технологий искусственного интеллекта и робототехники
Достижение указанных целей и задач должно осуществляться с учетом следующих принципов: стимулирование развития технологий ИИ и робототехники регуляторными средствами как основной вектор развития регулирования в обозначенный временный период («стимулирование как основа регулирования»); регуляторное воздействие, основанное на риск-ориентированном, междисциплинарном подходе и предусматривающее принятие ограничительных норм в случае, если применение технологий ИИ и робототехники несет объективно высокий риск причинения вреда участникам общественных отношений, правам человека и интересам общества и государства; расширение применения инструментов со-регулирования и саморегулирования, формирование кодексов (сводов) этических правил разработки, внедрения и применения технологий ИИ и робототехники; человеко-ориентированный подход, предусматривающий, что конечной целью развития технологий ИИ и робототехники, направляемого посредством регуляторного воздействия, является обеспечение защиты гарантированных российским и международным законодательством прав и свобод человека и повышение благосостояния и качества жизни граждан.
Кроме того, должны учитываться следующие принципы: оценка воздействия технологий и систем ИИ и робототехники на все сферы жизни человека, общества и государства, основанная на научно-выверенных исследованиях с подключением широкого круга ученых; обеспечение баланса интересов разработчиков, потребителей и иных лиц в сфере ИИ и робототехники, а также определение границ их ответственности за возможные негативные последствия использования технологий ИИ и робототехники; технологический суверенитет, предусматривающий обеспечение необходимого уровня независимости России в области ИИ и робототехники (с учетом государственной политики в сфере развития ИТ и импортозамещения); поддержка конкуренции, предусматривающая обеспечение равных для всех (включая предприятия малого и среднего бизнеса) возможностей для применения экспериментальных правовых режимов и мер государственной поддержки, а также для доступа к необходимым в целях разработки систем ИИ и робототехники данным из государственных и муниципальных информационных систем.
При разработке нормативных актов в сфере ИИ и робототехники должна проводиться оценка социально-экономических последствий и рисков в условиях постоянного развития технологий и международного опыта регулирования (как положительного, так и отрицательного). Также обязательной должна стать обоснованная оценка рисков причинения при применении ИИ и робототехники вреда жизни и здоровью человека, реализации угроз обороне страны и безопасности государства вместе с принятием мер, направленных на минимизацию таких рисков и угроз.
Этические нормы искусственного интеллекта
Развитие технологий ИИ и робототехники должно основываться на базовых этических нормах. В частности, должен быть обеспечен приоритет благополучия и безопасности человека, защиты его основополагающих прав и свобод. Эта цель должна преобладать над иными целями разработки и применения систем ИИ и робототехники.
Должен быть установлен запрет на причинение вреда человеку по инициативе систем ИИ и робототехники. По общему правилу следует ограничивать разработку, оборот и применение систем ИИ и робототехники, способных по своей инициативе целенаправленно причинять вред человеку. Указанные технологии должны быть подконтрольны человеку в той мере, в которой это возможно с учетом требуемой степени автономности систем ИИ и робототехники и иных обстоятельств.
Развитие технологий ИИ и робототехники должно основываться на базовых этических нормах. Фото: ru.depositphotos.com
Также в указанных технологиях должно проектироваться соответствие закону, в том числе требованиям безопасности. Применением систем ИИ не должно заведомо для разработчика приводить к нарушению правовых норм. Кроме того, не допускается противоправная манипуляция поведением человека.
Основные проблемы при регулировании искусственного интеллекта
Одним из основных препятствий для расширения применения систем с использованием ИИ и робототехники является отсутствие достаточной степени доверия к ним со стороны общества, указывают авторы документа. Повышение степени автономности таких систем, снижение контроля человека за процессом их применения, не полностью прозрачный процесс принятия решений создают общественный запрос на регуляторные ограничения применения систем ИИ и робототехники.
В настоящее время в мире отсутствуют единые подходы к регулированию технологий ИИ и робототехники, что связано с наличием ряда проблем, не имеющих однозначного решения. Среди них — соблюдение баланса между требованиями по защите персональных данных и необходимостью их использования для обучения систем ИИ, определение предмета и границ регулирования сферы использования систем ИИ и робототехники, идентификация системы ИИ при взаимодействии с человеком, включая его информирование о взаимодействии с такой системой, а также правовое «делегирование» решений систем ИИ и робототехники.
Кроме того, проблемами являются ответственность за причинение вреда с использованием систем ИИ и робототехники, правовой режим результатов ИИ, созданных с использованием систем ИИ, использование для принятия решений системами ИИ вероятностных оценок и невозможность в ряде случаев полного объяснения принятого ими решения (проблема алгоритмической прозрачности систем искусственного интеллекта).
Обозначенные выше направления должны стать основными ориентирами при создании комплексной системы регулирования общественных отношений, возникающих в связи с развитием и внедрением технологий ИИ и робототехники. С учетом экономической и социальной значимости применения технологий ИИ и робототехники в различных сферах, их разработка и эксплуатация не должны ограниваться регуляторными мерами, за исключением случаев, связанных с высоким риском причинения вреда жизни и здоровью граждан. Также не допускается применением технологий ИИ и робототехники, представляющих явную угрозу обороне страны и безопасности государства.
Для выработки конкретных регуляторных решений требуется использоваться риск-ориентированный подход, основанный на оценке размера потенциального вреда указанным ценностям с учетом вероятности его наступления по сравнению с потенциальным положительным эффектом от внедрения технологий ИИ и робототехники, необходимости принятия мер по минимизации соответствующих рисков.
Сам факт использования систем ИИ и робототехники не должен являться основанием для установления регуляторных ограничений. Следует поддерживать развитие регулирования, вырабатываемого и приводимого в исполнение силами участников рынка (саморегулирование), включая принятие и использование документов национальной системы стандартизации, кодексов этических правил и иных документов саморегулируемых организаций, а также иных инструментов.
Учитывая принципиальную сложность регулируемой сферы правоотношений, для выработки режима регулирования технологий ИИ и робототехники требуется активное вовлечение представителей компаний — разработчиков систем ИИ и роботехники, а также научно-исследовательских организаций в процесс экспертной проработки соответствующих нормативных правовых актов.
«Регуляторные песочницы» для искусственного интеллекта
Требуется создать возможности для использования специального механизма тестирования (опытной эксплуатации) и последующего внедрения решений в сфере ИИ и робототехники. Такой механизм должен позволять своевременно и эффективно внедрять разработки без не учитывающих их специфику избыточных административных процедур, без корректировки всего применимого законодательства и с обеспечением необходимого уровня безопасности и контролируемости со стороны государственных органов.
Перспективными инструментами создания такого механизма являются экспериментальные правовые режимы («регуляторные песочницы»), а применительно к промышленности — также правовой режим полигона общего доступа. Их применение соответствует лучшим мировым практикам и отвечает интересам индустрии. В краткосрочной перспективе требуется принятие соответствующих нормативных актов, обеспечивающих гибкий механизм быстрого создания таких режимов в максимально широком круге отраслей с возможностью участия в них заинтересованных лиц на недискриминационных условиях. По результатам регуляторного эксперимента возможно последующее включение в законодательство России по результатам регуляторного эксперимента норм, необходимых для применения соответствующих технологий.
Применение экспериментальных правовых режимов будет востребовано для таких продуктов и решений, как отдельные системы ИИ в здравоохранении, медицинской робототехнике, системы ИИ и робототехники специального и двойного назначения, системы ИИ и робототехники в сфере транспорта и логистики, в государственном управлении, отдельные инструменты финансового стимулирования развития сфер ИИ и робототехники, системы ИИ и робототехники для строительства и топливно-энергетического комплекса.
Кто ответит за вред, причиняемый искусственным интеллектом?
Наиболее значимыми вопросами применения систем ИИ и робототехники в контексте гражданско-правовых отношений являются вопросы гражданско-правовой ответственности за вред, причиненный ими. Реальный уровень развития технологий ИИ и робототехники не предполагает кардинальных изменений в регулировании института юридической ответственности, однако требует постепенной доработки его отдельных элементов.
Требуется дальнейшая проработка механизмов гражданско-правовой, уголовной и административной ответственности в случае причинения вреда системами ИИ и робототехники, имеющими высокую степень автономности, при принятии ими решений. В том числе следует определить лиц, которые будут нести ответственность за действия указанных систем, доработки (при необходимости) механизмов безвиновой гражданско-правовой ответственности, а также возможности использования способов, позволяющих возместить причиненный действиями систем ИИ и робототехники вред (например, страхование ответственности, создание компенсационных фондов и др.).
Также при наличии реального риска нарушения прав и свобод человека может быть актуальной проработка вопроса об условиях идентификации системы ИИ при прямом взаимодействии с человеком. Общий вектор возможных изменений должен быть направлен на то, чтобы гарантировать эффективное и справедливое функционирование институтов юридической ответственности и распределение ответственности в случае такого причинения вреда.
Искусственный интеллект и персональные данные
Увеличение объема доступных данных и развитие ИКТ-инфраструктуры для доступа к ним являются одними из основных факторов развития технологий искусственного интеллекта. Законодательство России в области информации направлено, главным образом, на обеспечение режимов конфиденциальности информации и защиты персональных данных.
С учетом задачи повышения доступности и качества данных, требуется адаптация законодательства в целях обеспечения благоприятных правовых условий для безопасного и ответственного доступа разработчиков систем ИИ и робототехники к данным и безопасного обмена различными типами данных, включая данные, собираемые государственными органами и медицинскими организациями.
Также должны быть обеспечены особые условия (режимы) для доступа к данным, включая персональные данные (при условии принятия мер для защиты интересов субъектов персональных данных, включая обезличивание), в целях проведения научных исследований, обучения ИИ и разработки технологических решений на их основе, а также правовых условий для организации идентификации с использованием технологий ИИ и робототехники (при условии соблюдения права человека на неприкосновенность частной жизни).
В связи с этим необходимо расширение практики раскрытия данных, содержащихся в информационных ресурсах органов и организаций государственного сектора, а также в информационных ресурсах, созданных в целях реализации полномочий органов и организаций государственного сектора (государственных данных). Целесообразно также заложить основы правового регулирования функционирования общедоступных платформ таких данных. Требуются нормативное расширение перечня и типов открытых указанных данных для целей их использования разработчиками в сфере ИИ и закрепление соответствующих полномочий органами государственной власти.
В целях максимального использования потенциала больших данных требуется также изменение существующих подходов к регулированию обезличенных данных. При условии принятия правовых, организационных и технических мер для защиты прав субъектов персональных данных для обработки обезличенных данных должен быть предусмотрен более свободный правовой режим. Определение правил применения и оборота данных, полученных в результате обезличивания сведений, составляющих профессиональную и коммерческую тайну, будет способствовать большей доступности данных и стимулировать их владельцев к взаимовыгодному обмену.
Кроме того, для существующих режимов профессиональной тайны (врачебная тайна, банковская тайна, тайна связи, адвокатская тайна и др.) необходимо проработать вопрос целесообразности и возможности определения условий, при которых субъекты профессиональной тайны вправе привлекать для обработки соответствующих сведений сторонние организации. В том числе это будет способствовать раскрытию потенциала облачных технологий и технологий с использованием искусственного интеллекта.
Целесообразно предусмотреть уточнение правил получения согласия на обработку персональных данных для случаев, когда такая обработка осуществляется при проведении научных исследований в сфере искусственного интеллекта (например, в сфере здравоохранения, экологии, социологии и др.) и его обучения, а также использовать системы ИИ, обеспечивающие необходимый уровень защиты персональных данных. С учетом особой чувствительности сферы, для обеспечения гарантий прав субъектов персональных данных такие изъятия должны предполагать повышенную защиту персональных данных.
Либерализация требований по экспорту технологий искусственного интеллекта
В целях развития российских разработок технологий ИИ и робототехники необходимо сформировать благоприятный режим их экспорта. Меры, ограничивающие экспорт, должны применяться только в сферах, непосредственно затрагивающих интересы национальной безопасности. Необходимо избегать формирования «двойного контура» регулирования, при котором российские разработчики будут вынуждены осуществлять инвестиции в разработку таких продуктов отдельно для российского и международных рынков.
В частности, существующее регулирование содержит изъятие из списка товаров и технологий двойного назначения, которые могут быть использованы при создании вооружений и военной техники и в отношении которых осуществляется экспортный контроль в части продуктов с применением ИИ и робототехники. Такой перечень изъятий для гражданского назначения является не в полной мере актуальным, считают авторы документы. Целесообразно расширить этот перечень либо перейти к описанию конкретных технологических решений и продуктов ИИ и робототехники, экспорт которых может привести к их использованию при создании вооружений и военной техники.
Развитие страховых институтов для искусственного интеллекта
В настоящее время существует неопределенность в порядке и самой возможности применения существующих страховых институтов к отношениям с участием систем ИИ и робототехники. Отсутствие специальных положений на этот счет делает невозможным страхованием систем ИИ и робототехники. Это негативно сказывается на возможности их внедрения либо делает его необоснованно дорогим (что также препятствует развитию отрасли).
Эффективное функционирование страховых институтов в индустрии, напротив, оказывает положительное влияние на скорость внедрения роботов в гражданский оборот. Так, наличие заключенного договора страхования ответственности за причинение вреда может выступать (и в целом ряде зарубежных стран выступает) ключевым условием для выпуска некоторых видов систем ИИ и робототехники в оборот.
В связи с этим следует определить случаи и условия обязательного страхования ответственности за вред, причиненный применением роботов или систем ИИ и робототехники, в том числе как альтернативы иным инструментам регулирования. Определение случаев и условий применений страхования возможно после формирования нормативно-правовой и нормативно-технической базы в сфере ИИ и робототехники, что позволит определить условия осуществления страхования, включая вопросы сбора статистических данных для расчета страховых тарифов, а также форму страхования (обязательное или добровольное).
Термины и определения в сфере искусственного интеллекта
Отсутствие однозначного понимания содержания терминов «искусственный интеллект», «робот», «умный робот», «робототехника», «интеллектуальный агент» приводит к терминологическим проблемам при формировании регулирования.
В то же время с учетом прикладного характера применения этих технологий в самых разных областях может требоваться формулирование разных определений в зависимости от отрасли применения технологий искусственного интеллекта и робототехники. По этой причине в рассматриваемый авторами документа временной период предлагается по возможности избегать внедрения в законодательство России единого для всех отраслей нормативного определения указанных терминов.
При этом крайне важно в данный период провести работу по построению и гармонизации онтологии предметной области силами экспертного сообщества и профильных технических комитетов при Федеральном агентстве по техническому регулировании и метрологии. Там, где это необходимо для целей определения предмета регулирования конкретных нормативных актов, предлагается использовать определения, содержащиеся в документах по стандартизации, либо давать определения, актуальные конкретно для этой сферы регулирования.
Точечное «делегирование» принятия решений системам искусственного интеллекта
Требуются выявление и анализ сфер, в которых допускается ограниченное применением систем искусственного интеллекта при принятии юридически значимых решений, составление перечня таких сфер, подготовка предложений о корректировке соответствующих нормативных правовых актов.
При этом (по крайней мере, в рассматриваемый в документе временной период) законодательство России должно допускать только точечное «делегирование» определенных решений системам искусственного интеллекта, где это объективно целесообразно и не несет угрозы основополагающим правам и свободами человека, обороне страны и безопасности государства. Для реализации отдельных элементов «делегирования» может активно применяться инструмент экспериментальных правовых режимов («регуляторные песочницы»).
Отказ от дополнительных ограничений для применения ИИ в потребительского товарах
Применение систем ИИ и робототехники как более функциональных по сравнению с традиционными системами потенциально способно повысить качество жизни потребителей. В то же время не всегда понятная и предсказуемая логика работы таких систем создает ряд рисков для потребителей, например, при применении систем, предназначенных для автоматизации совершения сделок и иных юридических действий, а также при применении систем, взаимодействующих с физической средой (бытовые роботы, электроника, системы «умного дома» и др.).
Как освободить 2,5 часа в день для каждого сотрудника
БизнесВместе с тем, в рассматриваемый в документе временной период, внесение в законодательство России каких-либо дополнительных ограничений на применение таких систем представляется нецелесообразным. Также применение всех типов подобных систем ввиду повышения интенсивности обработки персональных данных сопряжено с дополнительными рисками нарушения тайны частной жизни граждан.
С учетом изложенного целесообразно уточнить там, где это необходимо с учетом специфики товара (работы, услуги), подход к подтверждению и оценке соответствия продукции при внедрении в нее систем ИИ и робототехники с учетом их особенностей (изменением поведения в процессе эксплуатации), включая оценку соответствия функциональным требованиям и требованиям безопасности.
Также следует уточнить необходимость и возможные случаи введения в системы ИИ и робототехники, которые потенциально могут причинить вред, функциональных особенностей, обеспечивающих, например, возможность потребителя прекратить деятельность системы ИИ в критической ситуации («красная кнопка») или обеспечить фиксацию фактов, позволяющих установить обстоятельства причинения вреда («черный ящик»).
Кроме того, следует стимулировать выработку и закрепление разработчиками и производителями соответствующих систем этических норм в области обработки информации (включая персональные данные), добросовестного информирования об основных функциональных особенностях систем ИИ и робототехники, а также внедрение систем добровольной сертификации соответствия таким нормам. Также следует уточнить порядок реализации существующих прав потребителей с учетом особенностей товаров (работ, услуг), функциональность которых определяется и может изменяться программным обеспечением.
Процедуры подтверждения соответствия для систем искусственного интеллекта
Сейчас в России действует целый ряд технических стандартов в сфере робототехники, однако нормативно-техническое регулирование в области искусственного интеллекта только начинает формироваться. Для обеспечения надежности, достоверности, безопасности и интероперабельности решений в области искусственного интеллекта необходимо создание современной системы нормативно-технического регулирования в этой сфере.
Для отдельных сфер применения систем ИИ и робототехники могут быть адаптированы существующие, а в некоторых случаях введены новые процедуры добровольного подтверждения соответствия, учитывающие достигнутый и перспективный уровень техники, роль программного компонента в функциональности и безопасности таких систем, особенности современных подходов к разработке программного обеспечения, его обновлению и сопровождению на протяжении жизненного цикла.
Установление в исключительных случаях требований обязательного подтверждения соответствия должно способствовать развитию оборота продуктов на основе ИИ и робототехники, выступая достаточным условием их введения в оборот или альтернативой иных регуляторных ограничений, связанных с обеспечением безопасности отдельных видов продуктов на основе технологий искусственного интеллекта и робототехники. При этом не может допускаться установление требований обязательного подтверждения соответствия до разработки соответствующих стандартов и иных требований.
В тех случаях, когда это возможно, вместо требований обязательного подтверждения соответствия должны использоваться меры, ограничивающие в меньшей степени развитие отрасли. Целесообразно обеспечить активное участие российских специалистов в разработке международных стандартов и иных документов, в том числе на международных ключевых площадках (Международная организация по стандартизации, Международная электротехническая комиссия, Международный союз электросвязи, Организация экономического сотрудничества и развития, Институт инженеров электротехники и электроники).
Охрана прав на результаты интеллектуальной деятельности, полученные искусственным интеллектом
Существующий правовой режим не обеспечивает правовую охрану результатов деятельности систем искусственного интеллекта, полученных без творческого вклада человека, указывают авторы документа. Потенциальная «неохраноспособность» результатов деятельности, получаемых с использованием систем искусственного интеллекта и робототехники, может дестимулировать разработку и внедрение таких систем.
Необходимо выработать подходы к наиболее спорным вопросам. В частности, целесообразно ли расширить толкование понятия творческого вклада или предоставить правовую охрану таким результатам как объектам интеллектуальной собственности в другом формате? Если целесообразно, то кто должен быть субъектом, обладающим исключительным правом на результат интеллектуальной деятельности, в каком режиме и с какими возможными изъятиями должна быть предоставлена правовая охрана таким результатам интеллектуальной деятельности?
Другой вопрос — при каких условиях допустимо использование при разработке и эксплуатации систем ИИ и робототехники (в частности, при машинном обучении) результатов интеллектуальной деятельности третьих лиц? Еще одним аспектом проблемы является необходимость совершенствования порядка закрепления прав на результаты интеллектуальной деятельности, созданных с использованием технологий ИИ и робототехники.
Искусственный интеллект в медицине
На основе технологий искусственного интеллекта разрабатываются системы диагностики и поддержки принятия врачебных решений, которые позволяют использовать массивы аналитической информации, недоступные или ограниченно доступные медицинским работникам при обычном взаимодействии с пациентом. В свою очередь, использование оцифрованных массивов медицинских данных разработчиками для обучения систем ИИ и робототехники способно значительно повысить эффективность и безопасность таких систем.
Медицинская робототехника является одним из самых быстро растущих сегментов робототехники и обеспечивает оказание более качественных услуг пациентам. Ключевым барьером существующего регулирования, препятствующим широкому использованию технологий ИИ и робототехники в медицине и требующим правового решения, является проблема распределения ответственности за вред здоровью пациента, наступивший в результате применения технологий ИИ и робототехники в процессе оказания медицинской помощи. Сейчас отсутствует законодательно установленный перечень случаев, при которых допускается полное или частичное принятие решений с применением систем ИИ и робототехники.
Медицинская робототехника является одним из самых быстро растущих сегментов робототехники и обеспечивает оказание более качественных услуг пациентам. Фото: ru.depositphotos.com
Другим барьером является отсутствие специального порядка регистрации систем ИИ и робототехники и медицинских роботов, учитывающего их специфику, а также долгие сроки прохождения соответствующих процедур, которые не позволяют быстро выводить на рынок новые решения, оперативно вносить изменения в системы ИИ и робототехники и пользовательскую документацию в связи с необходимостью регулярных обновлений программного обеспечения.
Еще одним барьером являются низкая доступность медицинских данных в целом и качественных размеченных данных в особенности, для использования разработчиками систем ИИ и робототехники. Это связано с отсутствием достаточных правовых оснований для предоставления права использования обезличенных медицинских данных третьим лицам и регламентов передачи медицинских данных от медицинских организаций компаниям — разработчиками систем ИИ и робототехники. Кроме того, авторы документа отмечают неопределенность в вопросах отнесения систем ИИ и робототехники (включая приложения, чат-боты и др.) к медицинским изделиям, подлежащим государственной регистрации.
Искусственный интеллект в государственном управлении
Использование технологий ИИ и робототехники в государственном (муниципальном) управлении потенциально позволит сократить количество рутинных операций у госслужащих, минимизировать издержки и повысить скорость принятия решений. Внедрение технологий ИИ и робототехники в рассматриваемой сфере целесообразно осуществлять поэтапно, начиная со сфер применения, которые не предполагают принятия критически значимых решений.
Ключевые проблемы существующего регулирования использования систем ИИ и робототехники в государственном управлении заключается в отсутствии однозначного понимания нормативных условий для их использования при принятии каких-либо юридически значимых решений, в том числе в части рассмотрения обращения граждан, предоставления государственных (муниципальных) услуг, осуществления действия разрешительного характера, осуществления контрольно-надзорных мероприятий.
Для решения этих проблем требуется: повышение качества данных в государственных и муниципальных ИС, в том числе за счет создания национальной и региональных систем управления данными; создание нормативных возможностей применения систем ИИ и робототехники для принятия определенных решений в сфере государственного управления; создание механизма пересмотра решений, принятых с помощью систем искусственного интеллекта; утверждение прозрачных правил оценки соответствия систем ИИ и робототехники требованиям безопасности, выработка механизма оценки эффекта от их применения с точки зрения защиты основополагающих прав человека и гражданина (защита от дискриминации и избирательного правоприменения, сокращение рисков разглашения конфиденциальной информации и др.).
Искусственный интеллект для беспилотного транспорта
Технологии ИИ и робототехники активно применяются для создания и эксплуатации высоко- и полностью автоматизированного транспорта (автомобильного, рельсового, воздушного, водного). Применение технологий автоматического управления позволяет сделать транспорт более безопасным, экономичным, быстрым и комфортным. Несмотря на развит
Полный текст статьи читайте на CNews