ChatGPT уже используют для преступлений. Вот примеры

Европол подготовил отчёт о потенциале использования ChatGPT и других продвинутых языковых моделей для совершения преступлений. Специалисты правоохранительного ведомства назвали несколько направлений, где нейросети могут оказаться полезными злоумышленникам.

ChatGPT

«Здравствуйте, я сотрудник Сбербанка»

ChatGPT способен генерировать убедительные тексты на основе запроса пользователя. Это делает ИИ полезным инструментом для фишинговых атак. С чат-ботом можно с высокой долей реалистичности выдать себя за представителя компании или знаменитость.

Прежде масштабы таких атак ограничивались производительностью мошенников. К тому же не все жулики в совершенстве владели английским языком и выдавали себя, делая грамматические ошибки. ChatGPT решил обе проблемы. 

Бесплатный программист

Исследовательское агентство Check Point Research обнаружило на хакерских форумах несколько примеров применения ChatGPT для генерации вредоносного кода. В одном из сообщений демонстрируется код утилиты для кражи документов с компьютера, в другом — код вируса-шифровальщика.

ChatGPT

Вряд ли нейросеть прямо попросили написать вредоносную программу. Скорее всего, злоумышленники обосновали свой запрос вполне мирными целями. Но результат такой работы ИИ легко применить для атак на обычных людей.

В Европоле отмечают, что ChatGPT позволяет создать инструмент для взлома и кражи данных без технических знаний. Этот фактор может привлечь законопослушных граждан к совершению противоправных действий.

Если потенциальный правонарушитель ничего не знает о конкретной области преступлений, ChatGPT способен значительно ускорить процесс исследования темы. ChatGPT можно использовать для изучения преступных методов даже без предварительных знаний, начиная способами проникновения в дом и заканчивая терроризмом, киберпреступностью и сексуальным насилием над детьми.

Европол

Не всё так плохо

Европол отмечает, что ChatGPT обучен на массиве данных, актуальных лишь на сентябрь 2021 года. Это касается и изначальной версии чат-бота на базе модели GPT-3.5, и недавно представленной версии на GPT-4. Вот почему у мошенников не выйдет использовать нейросеть для планирования преступлений с опорой на актуальную информацию.

ChatGPT

Вдобавок модели семейства GPT пока не избавились от «галлюцинаций» — так называют в корне неверные утверждения, выдаваемые алгоритмом. ChatGPT может придумать несуществующий факт и будет настаивать на его корректности.

Но самое большое ограничение функциональности ChatGPT предусмотрели её создатели. Инженеры компании OpenAI встроили систему для фильтрации ответов, которые способны нанести вред или оказаться оскорбительными. Правда, её можно обойти. Например, попросив чат-бота притвориться третьим лицом и действовать от его имени. В сети уже есть сообщества людей, которые находят способы взлома правил GPT.

Автор:  Антон Курилов

©  4PDA