ChatGPT внёс американского профессора в список обвиняемых в домогательствах, перепутав его с полным тёзкой

9abdc2d2d598008f1623e55817786a8b.jpg

Однажды профессор права Джонатан Тёрли получил тревожное письмо. В рамках исследовательского проекта его коллега из попросил чат-бота ChatGPT составить список юристов, которых обвиняли в сексуальных домогательствах. Имя Терли оказалось в списке. Его историю рассказывает The Washington Post.

Чат-бот, созданный OpenAI, рассказал, что Тёрли обвиняли в домогательствах к бывшему студенту во время учебной поездки на Аляску. В качестве источника информации чат-бот привёл статью в WP от марта 2018 года. Однако такой статьи не существует. И никакой учебной поездки на Аляску тоже не было. Тёрли заявил, что никто никогда не обвинял его в домогательствах к студентам.

Регулярно выступающий в СМИ Тёрли часто просил исправлять ошибки в новостях. Но на этот раз не было журналиста или редактора, с которым можно было бы связаться — и не было способа исправить ситуацию. «Это было довольно пугающе», — сказал он в интервью The Post. «Такое обвинение очень вредит репутации».

Эта ситуация — пример подводных камней, встречающихся при работе с чат‑ботами, которые привлекли внимание своей способностью писать компьютерный код, стихи и поддерживать поразительно похожие на человеческие разговоры. Но это также может быть двигателем ошибочных утверждений; модели могут искажать ключевые факты с большим размахом, даже придумывая первичные источники для подтверждения своих же заявлений.

«Та как эти системы отвечают столь уверенно, очень соблазнительно предположить, что они могут знать всё, что угодно, поэтому бывает трудно отличить факты от лжи», — сказала профессор USC Annenberg и старший научный сотрудник Microsoft Research Кейт Кроуфорд.

В заявлении представитель OpenAI Нико Феликс отметил, что компания старается быть максимально прозрачной и сообщать о том, что бот может не всегда давать точные ответы. «Улучшение фактической точности — один из наших приоритетов, и мы делаем успехи», — сказал он.

Современные чат‑боты на базе искусственного интеллекта работают, опираясь на огромные объёмы контента, часто извлекаемые из таких источников, как «Википедия» или Reddit, чтобы составлять правдоподобные ответы на практически любые вопросы. Однако они не всегда отражают реальность. Чат‑боты могут совершать ошибки,  быть предвзяты или откровенно «лгать», опираясь на те данные, что они находят в своих источниках.

В некоторых случаях это может быть опасно или вредно. Например, чат-бот может соврать об истории или личности. Или он придумать цитаты или ссылки на несуществующие источники, чтобы подкрепить свои утверждения. Это может ввести в заблуждение пользователей, которые доверяют чат-боту или не проверяют его ответы. Такое поведение также может нарушать права и репутацию реальных людей. Именно это и произошло с Тёрли.

Его имя попало в список чат-бота из-за совпадения с другим профессором по праву — Джоном Тёрли из Университета Джорджтаун, которого обвинили в сексуальных домогательствах к асссистенту в 2018 году. Чат-бот перепутал двух профессоров и приписал обвинение другому Джону Тёрли, из Калифорнийского университета, а также выдумал детали о поездке на Аляску и статью в Washington Post.

Тёрли рассказал, что он не знает своего однофамильца из Джорджтауна и никогда не общался с ним. Он также отметил, что никогда не был на Аляске и вообще не планирует туда ехать.

Он обратился к разработчикам из OpenAI с просьбой удалить ложные обвинения из базы данных чат-бота. Профессор также отметил, что хочет получить извинения от компании и гарантии, что это больше не повторится. К тому же, он не исключает возможности подать в суд на OpenAI за клевету или нарушение авторских прав.

Представитель OpenAI заявил, что компания получила письмо от Терли и рассматривает его запрос. Он добавил, что она работает над улучшением точности чат-бота и рассматривает возможность добавления предупреждений или пометок для ответов, которые могут быть ложными или вымышленными.

© Habrahabr.ru