FSF пообещал проспонсировать исследования этических и законных вопросов использования GitHub Copilot
Из примера тестирования Copilot.
Фонд свободного программного обеспечения (FSF) объявил о проведении исследований этических и законных вопросов работы нейросетевого помощника программиста Copilot от GitHub и Microsoft.
С точки зрения FSF, сервис Copilot в его нынешнем виде неприемлем и несправедлив, так как для его использования нужна Microsoft Visual Studio или ее части кода, а этот проект не является открытым и бесплатным. Фонд СПО не знает, какой лицензией была защищена нейросеть, обученная Copilot и не понимает до конца, кому принадлежат авторские права на новый код, написанный с помощью помощника программиста, используя код из открытых репозиториев.
Сторонние разработчики часто спрашивают позиции FSF по поводу последствий использования Copilot для сообщества свободного программного обеспечения. Им непонятно, действительно ли обучение нейронной сети на свободном программном обеспечении можно считать добросовестным использованием. Также неясно, могут ли фрагменты кода и другие элементы, скопированные из репозиториев, размещенных на GitHub, привести к нарушению авторских прав. Участники сообщества задаются вопросом — нет ли чего-то принципиально несправедливого в том, что компания, занимающаяся проприетарным программным обеспечением, запустила такой сервис.
На большинство этих вопросов, многие из которых, возможно, еще будут иметь юридические последствия, у юристов Фонда СПО простых ответов нет. Поэтому FSF собирается заняться изучением и анализом как официальных документов, посвященных Copilot, авторскому праву, машинному обучению и свободному ПО, так и любых ситуаций, которые возникли после использования помощника программиста в разных компаниях. Особенно, если результаты работы Copilot привели к предъявлению исков о нарушениях авторских прав под лицензией GPL.
За каждую полезную статью и официальный документ, касающийся ипользования Copilot, FSF собирается выплачивать вознаграждение $500. Фонд СПО также рассмотрит запросы на финансирование от авторов для проведения дальнейших исследований работы Copilot, по результатам которых будет опубликована статья или исследование.
Microsoft пояснила, что целью Copilot является упрощение жизни и повышение эффективности работы авторов программ. Сервис сейчас находится на стадии ограниченного технического тестирования, во время которого разработчики получают доступ к продукту по запросу. Компания собирается через некоторое время открыть доступ к данному инструменту разработчика всем желающим.
В начале июля разработчики стали жаловаться, что Copilot вместо нескольких строк нужного кода генерирует десятки строк с цитатами и комментариями из проектов с открытым исходным кодом. GitHub уточнила, что Copilot обычно не воспроизводит точные фрагменты кода, а создает производные работы из ранее полученных входных данных. Компания привела статистику, что это происходит лишь в 0,1% случаев. Немного позже GitHub призналась, что при обучении помощника программиста Copilot разработчики использовали весь доступный в репозиториях сервиса публичный код без учёта типа лицензии.
29 июня Microsoft и GitHub представили нейросетевого помощника программиста Copilot, работающего на базе OpenAI Codex. Решение OpenAI Codex генерирует код значительно более эффективно, чем GPT-3. Алгоритм обучали на датасете из терабайтов общедоступного кода. Copilot вышел в виде плагина редактора Microsoft Visual Studio Code и функции браузерного редактора кода GitHub Codespaces после регистрации в программе тестирования техноческого превью сервиса.