Проект Gentoo запретил принятие изменений, подготовленных с использованием AI-инструментов

Управляющий совет дистрибутива Gentoo Linux утвердил правила, запрещающие принятие в Gentoo любого контента, созданного с использованием AI-инструментов, обрабатывающих запросы на естественном языке, таких как ChatGPT, Bard и GitHub Copilot. Подобные инструменты не должны использоваться при написании кода компонентов Gentoo, создании ebuild, подготовке документации и отправке отчётов об ошибках.

Основные опасения, из-за которых запрещено применение AI-инструментов в Gentoo:

  • Неопределённость в области возможного нарушения авторских прав в содержимом, созданном при помощи моделей, обученных на большом массиве информации, охватывающем и произведения, защищённые авторским правом. Так же упоминается невозможность гарантировать соблюдение лицензионных требований в коде, сгенерированном через AI-инструменты. Сгенерированный AI код может рассматриваться как создание производной работы от кода, который использовался при обучении модели и распространяется под определёнными лицензиями.

    Например, при обучении модели на коде с лицензией, требующей извещения об авторстве (атрибуция), в предоставляемом AI-инструментами коде данное требование не выполняется, что может рассматриваться как нарушение большинства открытых лицензий, таких как GPL, MIT и Apache. Также могут возникнуть проблемы с лицензионной совместимостью при вставке кода в проекты под пермиссивными лицензиями, сгенерированного с использованием моделей, обученных на коде с копилефт-лицензиями.

  • Возможные проблемы с качеством. Опасения связаны с тем, что срегенированный AI-инструментами код или текст может выглядеть корректным, но содержать неявные проблемы и расхождения с фактами. Использование такого контента без проверки может привести к снижению качества проектов. Например, синтезированный код может повторять ошибки кода, используемого при обучении модели, что в итоге может привести к появлению уязвимостей и отсутствию необходимых проверок при обработке внешних данных.

    Проверка же требует больших трудозатрат на фактчекинг и рецензирование кода. Разбирая автоматически сгенерированные отчёты об ошибках разработчики вынуждены впустую тратить много времени на анализ бесполезных отчётов и перепроверять указанные там сведения по несколько раз, так как внешнее качество оформления вызывает доверие к информации и возникает ощущение, что разработчик что-то недопонял.

  • Этические вопросы, связанные с нарушением авторских прав при обучении моделей, негативным влиянием на экологию из-за больших энергозатрат на обучение, увольнениями в связи с заменой персонала ботами, снижением качества сервисов после замены служб поддержки на ботов, расширение возможностей для спама и мошенничества.

В анонсе отмечается, что новое требование может быть выборочно отменено для AI-инструментов, для которых будет доказано отсутствие проблем с авторским правом, качеством и этикой.



Источник: http://www.opennet.ru/opennews/art.shtml? num=61006

OpenNet прочитано 3490 раз