Ученые раскрыли еще одну опасность искусственного интеллекта

Алгоритмы определяют, кто поступает в университет, получает работу, медицинскую помощь или государственную поддержку. Однако, несмотря на свою эффективность, ИИ нередко становится источником несправедливых решений, что вызывает беспокойство как у граждан, так и у регуляторов.

Проблема заключается в том, что автоматические системы могут непреднамеренно отдавать предпочтение определенным группам, ущемляя интересы других. Например, в процессе отбора на работу или поступления в университет представители недопредставленных групп могут быть исключены из-за особенностей данных, на которых обучен алгоритм. В социальных системах ИИ может перераспределять ресурсы так, что социальное неравенство лишь усугубляется, оставляя людей с ощущением несправедливости.

Международная команда исследователей изучила, как некорректное распределение ресурсов человеком или ИИ влияет на готовность людей бороться с несправедливостью. Ученые сосредоточились на рассмотрении так называемого «просоциального наказания» — поведения, направленного на борьбу с несправедливостью. Это может быть, например, бойкот компании или конкретного человека, который ведет себя неэтично и нарушает те или иные нормы. Просоциальное наказание помогает поддерживать справедливость в обществе.

Искусственный интеллект
Источник: https://phys.org

Исследователи поставили вопрос: если человек сталкивается с некорректными решениями со стороны ИИ, а не человека, будет ли это влиять на его готовность противостоять человеческой несправедливости в будущем?

Серия экспериментов показала, что участники, пострадавшие от неправильного решения ИИ, реже проявляли инициативу для наказания нарушителей-людей, чем те, кто столкнулся с несправедливостью со стороны человека. Это явление ученые назвали «индуцированное ИИ безразличие». Люди, столкнувшиеся с некорректность. от машины, становились менее склонными вмешиваться в случае нарушений со стороны других людей.

Одной из причин, почему несправедливость со стороны ИИ вызывает меньший отклик, может быть то, что люди меньше винят алгоритмы в предвзятых решениях. Интересно, что эти выводы остались неизменными даже после появления в 2022 году таких мощных инструментов ИИ, как ChatGPT.

Результаты экспериментов подтверждают, что реакция человека на несправедливость зависит не только от самой ситуации, но и от того, кто выступал ее источником — человек или ИИ. Когда алгоритмы принимают решения, которые кажутся людям неправильными, это может оказывать долгосрочное влияние на их поведение в обществе, снижая их готовность реагировать на некорректность, исходящую от других людей.

Влияние несправедливых решений ИИ выходит за пределы индивидуальных ситуаций и затрагивает взаимодействие между людьми. Это подчеркивает необходимость разработки ИИ-систем с минимальным уровнем предвзятости. Разработчики должны уделять особое внимание корректировке обучающих данных, чтобы избежать ошибок, которые могут приводить к некорректным решениям.

В ответ на эти вызовы правительства предпринимают меры для защиты граждан от предвзятости ИИ. Например, руководство США предложило к рассмотрению Билль о правах в области ИИ, а Европейский парламент разрабатывает Закон об ИИ. Эти инициативы, помимо прочего, обязывают компании раскрывать, в каких именно областях решения принимает ИИ для обеспечения прозрачности и справедливости автоматизированных решений. 

Только при активном сотрудничестве разработчиков, законодателей и общества ИИ сможет стать инструментом, поддерживающим этические и социальные стандарты, а не размывающим их.

Ранее эксперт объяснил,  почему российские банки столкнулись с проблемами развития ИИ.

©  HI-TECH@Mail.Ru