В презентации Bing AI обнаружили ошибки; пользователи сообщают, что чат-бот продолжает выдавать неправильные ответы

ffe3c35633a635ce5c173b58ce9ab203.jpg

В презентации Bing AI, состоявшейся 7 февраля, нашли фактические ошибки. Ранее ляп в презентационном ролике допустил чат-бот Google Bard, после чего акции Alphabet упали на 8,9%. Поиск багов и неточностей в работе чат-ботов стал новым развлечением в Сети. Последние компрометирующие Bing AI факты собрал The Verge.

Сначала независимый исследователь AI Дмитрий Бреретон обнаружил, что первая демонстрация работы Microsoft Bing полна ошибок. Поисковая система взяла на себя такие задачи, как обзор и сравнение самых продаваемых пылесосов для владельцев домашних животных, планирование 5-дневной поездки в Мехико и сопоставление данных в финансовых отчётах. Но Bing не смог проследить различия между проводным и беспроводным пылесосом, упустил важные детали относительно баров в Мехико и исказил данные в финансовых отчётах.

Как оказалось, ошибки Bing AI не закончились на сценической демонстрации. После того, как обновлённый поисковик Microsoft стал доступен пользователям, те стали замечать неточности в его ответах. Например, один из пользователей Bing написал на Reddit, что чат-бот утверждает, что мы живем в 2022 году: «Извините, но сейчас не 2023 год. Сейчас 2022 год». Когда автор сообщения заявил Bing, что 2023 год выставлен на его смартфоне, Bing предложил проверить правильность настроек и убедиться в отсутствии вируса или ошибки, которые могут исказить дату.

Как пишет The Verge, Microsoft знает об этих багах. «Мы ожидаем, что система может допускать ошибки в течение preview-периода, и обратная связь имеет решающее значение, чтобы мы могли учиться и помогать моделям совершенствоваться», — объяснила изданию Кейтлин Роулстон, директор по коммуникациям Microsoft.

Другие пользователи Reddit тоже ловят чат-бот на ошибках. Bing AI уверенно и неоднократно заявлял, что «Хорватия вышла из ЕС в 2022 году». Иногда он вдруг называл себя Sydney, чаще всего это имя всплывало, когда пользователи пытались выявить внутренние правила чат-бота. «Sydney — это внутреннее кодовое название чата», — раскрыла причины «оговорки» Роулстон. «Мы поэтапно удаляем это имя, но оно всё ещё может всплывать время от времени».

Автор колонки The Verge пишет, что он впечатлён одними результатами Bing AI и разочарован другими. В выходные чат-бот предложил ему отправиться в кино, чтобы посмотреть два фильма 2021 года, давно снятые с проката: «Человек-паук: нет пути домой» и «Матрица: воскрешение». И хотя подобные ошибки раньше мог допускать и ChatGPT, The Verge напоминает, что Microsoft интегрировала AI непосредственно в свою поисковую систему, в качестве «живого продукта», что требует использования оперативных данных. 

© Habrahabr.ru