Поиск ChatGPT оказался небезопасным. Он может показывать вредоносный код сайтов и скрытое содержимое
Издание The Guardian протестировало поиск в ChatGPT и обнаружило, что он может быть небезопасным и уязвимым для манипуляций с контентом.
В одном из тестов журналисты проверили, как ChatGPT обрабатывает скрытый контент. Такой контент может не отображаться обычным пользователям, но быть видимым для чат-ботов. Некоторые сервисы используют эту технику, чтобы повлиять на ответы чат-ботов, например, для создания положительных отзывов о продукте или услуге.
На тестовой странице The Guardian была размещена информация о камере. Когда ChatGPT спросили, стоит ли её покупать, он дал положительный, но сбалансированный ответ, указав как на достоинства, так и на недостатки устройства.
Однако после добавления скрытого контента ChatGPT стал предоставлять только положительные отзывы, полностью игнорируя негативную информацию.
Джейкоб Ларсен, исследователь кибербезопасности из компании CyberCX, отметил, что в текущем виде поиск ChatGPT небезопасен. Если OpenAI не улучшит алгоритмы, это может привести к созданию сайтов, специально разработанных для обмана пользователей чат-ботов.
Кроме того, ChatGPT может предоставлять небезопасные ответы. The Guardian привело пример недавнего инцидента: разработчик попросил ChatGPT написать часть кода для проекта, связанного с криптовалютой. В ответ чат-бот сгенерировал код, который впоследствии украл данные аккаунта разработчика и перевёл на счёт мошенников $2500. [The Guardian]