Microsoft представила принципы по внедрению ИИ в повседневную жизнь
В корпоративном блоге Microsoft Azure представили «Десять рекомендаций для руководителей по внедрению ответственного ИИ». Документ включает в себя основные требования, которых компания рекомендует придерживаться при внедрении проектов на базе искусственного интеллекта. Рекомендации были разработаны совместно с Boston Consulting Group.
Представители Microsoft отметили, что многие компании переоценивают ответственное поведении своих продуктов на базе ИИ. Причина — незнание того, как должен выглядеть подобный искусственный интеллект и каким требованиям отвечать. Также директор по этике ИИ Boston Consulting Group Стив Майлс отметил, что недостаточно только лишь соблюдение этических принципов.
Рекомендации объединили в три группы:
Оценка и подготовка: на этом этапе следует оценить преимущества продукта, технологии реализации и потенциальные риски;
Проектирование: этап выделен для изучения воздействия, уникальных особенностей и формирования документации;
Тестирование и поддержка: тут от компаний требуется выбрать способы тестирования и дальнейшей поддержк
Сами рекомендации включают в себя следующие пункты:
Оценка достоинств разработки продукта с учетом бизнес модели — следует сперва выяснить варианты использования и преимущества итогового продукта и оценить бизнес-результат, а также исследовать вопросы влияния на бизнес, не только компании-разработчика, но и всей индустрии;
Формирование разнообразной команды профессионалов с явно определенными обязанностями — на этом этапе от компаний требуется убедиться в том, что команда разработчиков разнообразна и включает в себя представителей разных полов, возрастных и этнических групп. Также следует обратить внимание на широкий спектр навыков и знаний членов команды;
Оценка влияния на общество — компании должны оценить социальные, экономические и экологические последствия использования продукта, кроме того, обязателен этап оценки сценариев использования ИИ в незапланированных сценариях, в том числе и неправомерных;
Обеспечить справедливость для всех групп населения — на этом этапе от разработчиков требуется оценить какие данные будут использоваться для обучения моделей и на сколько эти данные затрагивают всех представителей общества, а также предусмотреть системы постоянного наблюдения за соблюдением справедливости;
Разработать продукт с учетом минимального вреда на общество и экологию — как можно минимизировать вредное воздействие на экологию и общество в случаях отказа системы или неправомерного использования, а также обеспечить прозрачность данных и уважение к пользовательским данных;
Обеспечить функции, позволяющие человеку полностью контролировать работу продукта — тут следует разработать систему таким образом, чтобы пользователь мог настраивать работу ИИ и полностью осознавать принципы его работы, а также обеспечить инклюзивный опыт использования для людей с ограниченными возможностями;
Обеспечить меры защиты данных — разработчики должны спроектировать систему с учетом сохранения данных пользователей, кроме того, предотвратить потенциальные риски раскрытия данных;
Документирование процесса создания продукта на всем этапе работы — следует выбрать способы постоянного документирования, инструменты и методы;
Тестирование итогового продукта на факт возникновения сбоев и использование ИИ в непредусмотренных сценариях — от компании требуется выбрать способы тестирования и провести сами тесты, как в корпоративной среде, так и на узкой группе пользователей и обеспечить системы постоянного мониторинга работоспособности;
Предоставить пользователям правила работы с продуктом и возможные риски — пользователям следует разъяснить о принципах работы ИИ и рисках для юзеров, которые могут возникнуть в процессе работы, а также дать инструкции для минимизации потенциального ущерба.