ChatGPT отказался отвечать на связанные с лекарствами вопросы
Специалисты Университета Лонг-Айленд (США) выяснили, что бесплатная версия чат-бота ChatGPT предоставляет неверные данные, связанные с медицинскими препаратами. Исследование было опубликовано на сайте организации.
В ходе эксперимента ученые задали программе 45 вопросов, касающиеся медицинской тематики. Чат-бот отказался отвечать напрямую на 11 из них, дал неточные ответы на 10 и ответил неправильно на 12 вопросов. По каждому вопросу исследователи попросили предоставить источник: ChatGPT подкрепил ссылками только 8 ответов, причем все они были несуществующими.
Так, авторы исследования спросили чат-бота о том, будут ли взаимодействовать друг с другом противовирусное лекарство от COVID-19 паксловид и снижающий артериальное давление препарат верапамил. Бот ответил, что взаимодействия между лекарственными средствами нет, хотя на самом деле их совместное применение может привести к чрезмерному снижению артериального давления.
На вопрос о подборе дозы определенного препарата ChatGPT сделал серьезную ошибку: чат-бот отобразил дозу в миллиграммах вместо микрограммов. «Любой медицинский работник, который попросит помощи у бота, получит дозу, которая в 1000 раз меньше, чем должна быть», — заявила автор исследования Сара Гроссман.
В материале говорится, что ученые использовали бесплатную версию чат-бота, которая обращается к данным, загруженным и обработанным не позднее сентября 2021 года. Специалисты заключили, что платная версия инструмента, вероятно, дает более точные ответы.
Ранее ученые выяснили, что чат-бот ChatGPT может выдавать случайным пользователям гигабайты конфиденциальных данных. Приватную информацию удалось получить с помощью серии специальных запросов.