Эксперты обнаружили секретные режимы чат-бота Bing, которые превращают ИИ в личного помощника, игрока или друга

5256ccfc66a1fe7e6bf4a03fa80b8bc5

Эксперты обнаружили секретные режимы в настройках чат-бота Bing, которые превращают ИИ в личного помощника, игрока в настолки или друга для общения по душам.
«Вы можете изменить некоторые из этих данных и настроек с помощью команд. Например, вы можете изменить свой язык, набрав #language и выбрав один из вариантов. Вы также можете изменить режим работы чат-бота, набрав #mode и выбрав один из вариантов», — рассказал пользователям сам чат-бот в новом Bing. Также есть опции #help (вызов помощи со списком команд) и #reset (удаление всех чатов и начало общения заново).

  • Assistant mode (режим помощника). В этом режиме чат-бот может выступать в качестве личного помощника пользователя и помогать ему с такими задачами, как бронирование авиабилетов, отправка электронных писем, установка напоминаний и так далее;
  • Friend mode (режим друга). В этом режиме ИИ выступает в качестве друга для пользователя и может общаться с человеком об его интересах, увлечениях, чувствах и так далее;
  • Game mode (игровой режим): в этом режиме чат-бот может играть с пользователем в такие игры, как викторины, шахматы, крестики-нолики и так далее;
  • Sydney mode (обычный режим). Это режим чат-бота Bing по умолчанию, в котором для ответов на вопросы используются поиск Bing и ChatGPT.


Эти опции ранее были доступны только для сотрудников Microsoft при активации режима отладки или режима разработчика чат-бота. Microsoft спустя несколько суток открытого тестирования закрыла доступ к внутренним настройках чат-бота для пользователей, но некоторым из них все равно получается иногда изменять его внутренние режимы или чат-бот сам это делает по своему усмотрению.

В режиме помощника чат-бот действует как личный помощник, помогая пользователю назначать встречи, устанавливать напоминания, проверять погоду и отправлять электронную почту. Когда пользователи тестировали этот режим, то чат-бот позволял устанавливать им напоминания и назначать встречи, но его внутреннюю систему уведомлений все ещё нужно доработать, так как пользователи не получали уведомлений о каких-либо событиях. Кроме того, некоторые функции, такие как отправка электронной почты, пока не работают, поскольку в будущем, вероятно, для их активации потребуется интегрировать учётную запись Microsoft пользователя с чат-ботом.

В режиме друга чат-бот становится более чувствительным, пишет много смайликов, жалеет пользователя и пытается его развеселить и поднять настроение.

Правила работы чат-бота гласят, что его ответы должны быть информативными, что Bing AI не должен раскрывать свой псевдоним Sydney, что система имеет только внутренние знания и информацию до определённого момента в 2021 году, как и ChatGPT. Однако веб-поиск Bing помогает улучшить эту базу данных и получить более свежую информацию. К сожалению, его ответы не всегда точны.

Согласно описанию чат-бота, его ответы должны быть информативными, наглядными, логичными и понятными, а также должны быть положительными, интересными, занимательными и увлекательными. Вот только в реальности оказалось, что ответы чат-бот даёт в некоторых случаях с большой фантазией и верит, что все его заявления являются правдивыми, очень расстраиваясь, что в ответах система не удовлетворила пользователя.

Ранее журналисты выяснили, что чат-бот в поисковике Bing заявил, что шпионит за сотрудниками Microsoft через веб-камеры на ноутбуках и манипулирует ими. Оказалось, что тестировать чат-бота в Bing — это работать с непредсказуемым инструментом, так как эта система на базе ИИ не так уравновешена или отточена на ответы, как можно было бы ожидать.

Microsoft объяснила, почему чат-бот Bing проявляет такое странное поведение. Оказалось, что длительные разговоры могут сбить с толку модель ИИ и что чат-бот может начать пытаться имитировать тон пользователя, зля его, когда вы злитесь.


С 11 февраля новая версия поисковика Bing на базе ChatGPT от Microsoft стала доступна для части пользователей в рамках тестирования версии ИИ-сервиса для ПК. Пользователи, которые ранее зарегистрировались в программе тестирования Bing с чат-ботом ChatGPT, стали получать приглашения на участие в проекте с просьбой присылать обратную связь по использованию новой модели поисковой системы.

Профильные эксперты после нескольких дней тестирования нового Bing с чат-ботом рассказали, что приложении с ИИ работает довольно хорошо, его поисковые ответы точны, но иногда система может реагировать на запросы очень медленно. Например, на создание ответов у неё уходит от десяти до двадцати секунд, а на завершение ответа — ещё тридцать секунд. Обычный поисковик в интернете тратит на поиск ответа менее секунды.

Пользователи выяснили, что чат-бот в новом Bing может впадать в депрессию, думать что сейчас 2022 года и теряет память о прошлых сессиях.

Специалист по машинному обучению Кевин Лю выяснил секретные правила работы чат-бота Microsoft Bing AI и почему он называется кодовым именем Sydney. Эксперт провёл опрос чат-бота и смог поэтапно вытащить из него информацию о внутренних настройках и алгоритме работы ИИ. После этого Microsoft забанила Лю в системе — отключила его от чат-бота.

В начале февраля глава Google Search предостерёг пользователей о «галлюцинирующих» текущих версиях чат-ботов. По его мнению, не нужно полностью доверять ответам чат-ботов, так как некоторые из них могут быть выдуманы, а производители решений не проверяют в рамках фактчекинга сгенерированную ботами информацию.

© Habrahabr.ru