Google опубликовал 7 принципов этики ИИ
Уже несколько месяцев Google сражается с Microsoft и Amazon за многомиллионный контракт Пентагона на облачные сервисы и системы искусственного интеллекта (см. утечку внутренней переписки топ-менеджеров). К сожалению для руководства, палки в колёса вставляют… собственные сотрудники. В марте 2018 года они начали сбор подписей против разработки военных технологий в компании Google, у которой раньше основным девизом стоял принцип «Don’t be evil».
Руководству пришлось частично пойти на уступки. Вчера исполнительный директор компании Сундар Пичаи (Sundar Pichai) огласил набор принципов, которых обещает впредь придерживаться Google. Среди них — запрет на применение внутренних разработок в области Искусственного интеллекта для оружия, незаконного наблюдения и технологий, которые наносят «общий вред». Но Google продолжит сотрудничать с военными в других областях. Таким образом, облачное подразделение ещё сохраняет шансы на победу в борьбе за тендер.
Американский военный БПЛА
Сундар Пичаи написал в официальном блоге, что Google вкладывает значительные средства в исследования и разработки ИИ, делая эти технологии широко доступными для всех с помощью инструментов и с открытым исходным кодом. «Мы признаём, что такая мощная технология вызывает столь же серьёзные вопросы относительно её использования. То, как разрабатывается и используется ИИ, окажет значительное влияние на общество на многие годы вперед, — считает CEO. — Как лидер в ИИ, мы чувствуем глубокую ответственность. Поэтому сегодня мы объявляем семь принципов нашей работы. Это не теоретические концепции; это конкретные стандарты, которые будут активно управлять нашими исследованиями и разработкой продуктов и будут влиять на наши бизнес-решения».
Итак, вот семь принципов Google в области ИИ, в сокращённом виде.
Достижения в области ИИ окажут преобразующее воздействие в широком спектре областей, включая здравоохранение, безопасность, энергетику, транспорт, производство и развлечения. Рассматривая потенциальное развитие и использование технологий ИИ, компания будет учитывать широкий спектр социальных и экономических факторов и будет действовать там, где общие вероятные выгоды существенно превышают прогнозируемые риски и недостатки.
Алгоритмы и наборы данных ИИ могут отражать, усиливать или уменьшать дискриминацию. Google признаёт, что отличить справедливое от несправедливого предубеждения не всегда просто и что оно отличается в разных культурах и обществах. Компания обещает «стремиться избегать несправедливых последствий для людей, особенно тех, которые связаны с такими деликатными характеристиками, как раса, этническая принадлежность, пол, национальность, доход, сексуальная ориентация, способности и политические или религиозные убеждения».
Cистемы искусственного интеллекта Google будут «в должной степени осторожны» и разработаны «в соответствии с передовой практикой в области исследований безопасности искусственного интеллекта».
Cистемы ИИ обеспечат соответствующие возможности для обратной связи, соответствующих объяснений своих действий и возможных апелляций. Человек сохранит над ними контроль.
Google обещает использовать свои принципы приватности при разработке и использовании технологий ИИ, и, а также обеспечить надлежащую прозрачность и контроль над использованием данных.
Технологические инновации произрастают из научного метода и приверженности открытым запросам, интеллектуальной строгости, целостности и сотрудничеству. Инструменты ИИ имеют потенциал, чтобы разблокировать новые сферы научных исследований и знаний в критических областях, таких как биология, химия, медицина и науки об окружающей среде. Google обещает стремиться к высоким стандартам научного превосходства, ответственно делиться знаниями об ИИ, публиковать учебные материалы, лучшие практики и исследования, которые позволяют большему количеству людей разрабатывать полезные приложения ИИ.
У многих технологий есть двойное применение, в том числе у ИИ. Google обещает работать над ограничением потенциально вредных или оскорбительных приложений, а также оценивать их вероятное использование.
Сундар Пичаи привёл список технологий, которые неприемлемы для искусственного интеллекта Google.
- Технологии, которые причиняют или могут причинить общий вред.
- Оружие или другие технологии, основная цель или осуществление которых состоит в причинении или непосредственном облегчении вреда людям.
- Технологии, которые собирают или используют информацию для наблюдения, нарушают международно признанные нормы.
- Технологий, цель которых противоречит общепризнанным принципам международного права и прав человека.
В чём-то эти принципы напоминают законы робототехники Азимова. Остаётся надеяться, что другие компании-разработчики систем ИИ тоже официально объявят о приверженности этим принципам и будут их соблюдать.