Пришло время стандартизировать ИИ. Что скажут бюрократы?

На сайте Национального института стандартов и технологий США (NIST) завершается сбор предложений по разработке технических стандартов в области искусственного интеллекта (ИИ). Он связан с тем, что 11 февраля вышел Указ правительства США «О поддержании американского лидерства в области искусственного интеллекта», в котором NIST дано указание разработать план участия Федерального правительства в разработке технических стандартов и соответствующих инструментов для поддержки надежных систем, использующих технологии ИИ. Под соответствующими инструментами здесь имеются в виду прежде всего разнообразные средства тестирования (функционального, нагрузочного, производительности и т.п.).

В указе также говорится: «США должны стимулировать разработку соответствующих технических стандартов ИИ, чтобы обеспечить создание новых отраслей, связанных с ИИ, и внедрение ИИ в сегодняшние отрасли. Это может быть достигнуто благодаря работе и партнерству промышленности, научных кругов и правительства». Трудно не согласиться.

Среди прочего, в Указе отмечено, что США должны укреплять доверие общественности к технологиям ИИ. Если вспомнить, какую панику в обществе создали СМИ публикациями о том, что роботы скоро лишат работы сотни миллионов людей, то укрепление доверия к ИИ кажется совсем не лишним.

shutterstock705349822800.jpg

Как правило, стандарты фиксируют уже апробированные решения. Более того, стандарты принято каждые пять лет пересматривать

Вопрос со стандартизацией ИИ совсем не прост и весьма актуален, учитывая широкое проникновение его технологий, поэтому NIST сейчас проводит консультации со всеми заинтересованными сторонами. США, как, впрочем, и Китай, намерены сохранять лидерство в области ИИ, поскольку это имеет первостепенное значение для поддержания экономической и национальной безопасности страны, что вполне объяснимо — мировой рынок ИИ уже сейчас оценивается в триллионы долларов и продолжает активно расти. К слову, доля России в нем катастрофически мала, менее одного процента.

Мне нравится системность в подходе к стандартизации ИИ в США. Новые технические стандарты должны минимизировать уязвимость систем с ИИ к атакам со стороны злоумышленников, а кроме того, эти стандарты должны стать международными и закрепить приоритеты США в данной области.

Как правило, стандарты фиксируют уже апробированные решения. Более того, стандарты принято каждые пять лет пересматривать, поскольку за десять лет ситуация коренным образом меняется (это по Котельникову, если кто помнит): появляются новые технологии, возникают новые направления. Вспомните, сколько шума было вокруг больших данных или облачных вычислений. А теперь все улеглось и устоялось. Фокус внимания (так называемый хайп) перешел на другие вещи, в частности, на машинное обучение.

В области ИИ существует не так много направлений, где можно говорить о стандартизации. В первую очередь, это создание единой базовой терминологии в сфере ИИ, чтобы обеспечить общение пользователей, заказчиков и исполнителей. Далее — разработка единых требований по защищенности систем с ИИ, обеспечение интероперабельности систем, решений и оборудования с ИИ. И, наконец, в машинном обучении речь идет о стандартах при подготовке обучающих данных и критериях оценки качества обучения.

В то же время применительно к ИИ существует много вопросов, — таких, как прозрачность решения, — по которым стандартизация преждевременна, поскольку нет адекватных технических решений, обеспечивающих соответствие потенциальному стандарту.

Поскольку ИИ — очень широкая область, охватывающая несколько десятков направлений, то, наверное, во многих из этих областей можно выделить направления, созревшие для стандартизации.

Над проблемой стандартизации в области ИИ работают и международные организации: в рамках ISO и IEC создан объединенный подкомитет — ISO/IEC JTC 1/SC 42 Artificial intelligence. В его составе статус полноправных членов имеют 22 страны, включая Российскую Федерацию.

В появившемся недавно на CNews изложении проекта Национальной стратегии развития искусственного интеллекта упоминается последний раздел этого проекта, которой посвящен нормативному регулированию ИИ. Он описывает «создание базы нормативного регулирования для применения технологий искусственного интеллекта, в том числе для стимулирования развития экосистемы». О стандартизации в этой статье говорится лишь, что «Для создания полноценной системы нормативно-технического регулирования в области ИИ предлагается создать национальную стандартизацию и обеспечить тестирование, сертификацию и подтверждение соответствия для систем ИИ, поведение которых не может быть в полной мере предсказано или воспроизведено в тестовых условиях». Следует сказать, что Российская венчурная компания (РВК) разослала по организациям письмо с приглашением делегировать членов в создаваемый технический комитет «Искусственный интеллект» и примерный трехлетний план его работы. Ранее работой в этой области занималась одна из рабочих групп ТК-194 «Кибер-физические системы». Как эти комитеты поделят между собой данную тематику, пока непонятно.

Детально вопросы стандартизации в области ИИ были изложены в докладе «Искусственный интеллект и государство: пути для России», представленном группой авторов в январе на Гайдаровском форуме, а также в документах Международной электротехнической комиссии (IEC).

Специалистов, способных разрабатывать концепции, всегда было немного — это люди штучные. В России наконец-то с большим опозданием появился проект концепции развития ИИ. Проект интересный, но, на мой взгляд, нуждающийся в широком обсуждении. Есть в нем и довольно спорные места, например, по поводу упрощенных испытаний медицинской техники с ИИ. Важнейший вопрос заключается еще и в том, что вся до предела забюрократизированная система управления научно-техническим прогрессом в стране не выдерживает никакой критики. Отсюда и крайне низкие, недостойные великой научной и технической державы результаты. Поэтому, какая бы красивая концепция не появилась, ее воплощение может попросту не состояться.

Короткая ссылка на материал: http://cnews.ru/link/a14221

Полный текст статьи читайте на CNews