Эксперты опасаются, что Copilot поможет хакерам быстрее писать вредоносный код

x5ucmsawa_t8ucztzcj4n5ra450.jpeg

По информации издания «Известия», нейросетевой помощник программиста Copilot от Microsoft и GitHub может использоваться злоумышленниками для создания и копирования хакерских инструментов, а также разработки вредоносного ПО. В том числе из-за того, что этот сервис помогает снизить порог входа в программирование для большего числа пользователей, включая мошенников и непрофессиональных хакеров.
Представитель Microsoft пояснил изданию, что целью Copilot является упрощение жизни и повышение эффективности работы авторов программ. Сервис помогает сэкономить им время для более важных, сложных и творческих задач. С другой стороны, система не проверяет сгенерированный код на «вредность» и на то, что он может быть использован для проникновения на чужие ПК и взлома информационных систем.

Эксперты издания опасаются, что такое резкое повышение доступность профессии программист с помощью Copilot может вызвать всплеск разработки различного вредоносного ПО, которое будет создаваться теперь намного быстрее и продуктивнее.

Одно из решений этой проблемы, которое Microsoft может встроить в Copilot — это возможность отслеживания вредоносного кода, написанного пользователем сервиса и нейросетью. Но компания не заявляла о такой опции. Фактически тут пока что нет даже правил, как, например, в робототехнике. Хотя по логике, программа, создающая другую программу, не должна вредить своими действиями другим программам или пользователям. Сейчас этот сервис вне этики и технически может создавать и копировать любой открытый вредоносный код.

С другой стороны, Microsoft может использовать Copilot для борьбы с киберпреступностью — отслеживать пользователей, которые с его помощью создают вредоносные программы. Но в данном случае нарушается механизм приватности разработчиков. Они сразу поймут проблему и перестанут напрямую его использовать.

В российском подразделении Microsoft «Известиям» уточнили, что Copilot находится на стадии ограниченного технического тестирования, во время которого разработчики получают доступ к продукту по запросу. Компания собирается через некоторое время открыть доступ к данному инструменту разработчика всем желающим. При обучении помощника программиста Copilot разработчики использовали весь доступный в репозиториях сервиса публичный код без учёта типа лицензии и проверки его на этичность.

В начале июля разработчики стали жаловаться, что Copilot вместо нескольких строк нужного кода генерирует десятки строк с цитатами и комментариями из проектов с открытым исходным кодом. GitHub уточнила, что Copilot обычно не воспроизводит точные фрагменты кода, а создает производные работы из ранее полученных входных данных. Компания привела статистику, что это происходит лишь в 0,1% случаев. Немного позже GitHub призналась, что при обучении помощника программиста Copilot разработчики использовали весь доступный в репозиториях сервиса публичный код без учёта типа лицензии.

29 июня Microsoft и GitHub представили нейросетевого помощника программиста Copilot, работающего на базе OpenAI Codex. Решение OpenAI Codex генерирует код значительно более эффективно, чем GPT-3. Алгоритм обучали на датасете из терабайтов общедоступного кода. Copilot вышел в виде плагина редактора Microsoft Visual Studio Code и функции браузерного редактора кода GitHub Codespaces после регистрации в программе тестирования техноческого превью сервиса.

© Habrahabr.ru