«Для искусственного интеллекта речь и поведение человека — это ящик Пандоры» — The Washington Post об участии писателей в создании виртуальных помощников

За созданием виртуальных помощников с ИИ, способных взаимодействовать с пользователями, стоят не только разработчики, но и писатели, поэты, комики и представители других творческих профессий, пишет The Washington Post. Издание описывает, как команды сценаристов собираются и продумывают поведение и речь сервиса или бота, с какими проблемами они сталкиваются. Редакция vc.ru публикует адаптированный период материала.

«До недавнего времени Робин Юинг работала сценаристом в Голливуде, — пишет The Washington Post. — Она писала сценарии для ТВ-передач и представляла пилотные серии на студии».

Сейчас Юинг вместе с командой разработчиков работает над мобильным приложением Sofia. Это виртуальная медсестра, которая напоминает пользователям, что пора принимать лекарства, а также интересуется их самочувствием и отправляет полученные данные реальному доктору.

В связи с тем, что ИТ-гиганты и стартапы удваивают ставки на виртуальных помощников, которые могут общаться с людьми, работа сценариста стала одной из самых востребованных в Кремниевой долине, пишет The Washington Post. За Siri от Apple, Alexa от Amazon и Cortana от Microsoft стоят не только разработчики, а также поэты, комики, писатели-фантасты и представители других творческих профессий.

В отличие от персонажей, вымышленных Юинг в Голливуде, жизнь которых была полна приключений и испытаний, большинство виртуальных помощников предназначены для выполнения прозаических задач: например, они напоминают о важных встречах, читают электронную почту или выключают свет в комнате по голосовой команде.

— The Wahington Post

Одна их главных задач сценаристов — это написать для виртуальных помощников ответы, близкие к разговорной речи. Конструкторы «умной» колонки Alexa, например, добились «очеловечивания» устройства, добавив в его ответы междометие «Хм», а помощница Siri известна своими «кривыми» шутками и способностью выдавать битбокс на некоторые запросы.

Ещё одна важная задача — это написание истории жизни бота. «Вы должны разработать целую предысторию —даже если вы не будете использовать её», — говорит Юинг в разговоре с The Washington Post. Сценаристы медицинских сервисов и приложений для работы зачастую описывают своих ботов как трудоголиков, энергичных карьеристов или скромных личностей.

В 2015 году стартапы по созданию виртуальных помощников привлекли как минимум $35 млн инвестиций, посчитали агентство CBInsights и The Washington Post. И это без учёта миллионов, потраченных такими гигантами, как Google, Amazon, Apple, Facebook и Microsoft, отмечает издание.

Интерес инвесторов к виртуальным помощникам, способным общаться с пользователями, отчасти подогрет популярностью мессенджеров (WeChat, WhatsApp, Facebook Messenger) — приложения этой категории одни из самых скачиваемых, поясняет The Washington Post. Инвесторы, как пишет издание, видят, что пользователей всё больше привлекают платформы для общения, и надеются дополнить их новыми функциями.

Важную роль сыграли и последние достижения в области ИИ — технология машинного обучения и обработка разговорного языка (способность компьютеров распознавать речь). По словам профессора компьютерных наук из Стэнфорда Кристофера Мэннинга, точность распознавания слов компьютерами выросла с 80% в 2009 году до 95% в 2014 году.

Но есть и определённые сложности, решать которые тоже входит в задачи сценаристов, пишет The Washington Post. На недавней встрече команда сценаристов виртуального помощника Cortana, в которую входят поэт, прозаик, драматург и бывший ТВ-сценарист, обсуждала, как отвечать на политические вопросы.

bc864ff00def1c.jpgСобрание сценаристов Cortana

Пользователи всё чаще спрашивают Cortana, кого из кандидатов в президенты США она поддерживает: Хилари Клинтон или Дональда Трампа. Чтобы найти «аутентичный» ответ, команда зарылась в предысторию. В итоге они представили Cortana как «гражданина Интернета», который знает о кандидатах и хорошее, и плохое. Теперь Cortana на вопрос о политических предпочтениях отвечает, что все политики — герои и злодеи.

Ещё один сложный вопрос касается пола. Если спросить Cortana, является ли она человеком, приложение ответит «нет». А потом добавит: «Я испытываю глубокое уважение к людям. Вы изобрели матанализ и молочные коктейли». Несмотря на «кристальную чистоту» и уверенность в том, что она не человек, команда Microsoft дала Cortana женский голос, поскольку пользователи предпочитают виртуального-помощника-женщину, пишет The Washington Post. Siri и Google Now тоже по умолчанию говорят женскими голосами, однако их можно поменять на мужской, отмечает издание. Alexa от Amazon говорит только женским голосом, а Watson от IBM может и мужским.

И всё же, несмотря на женский голос, команда настаивает на том, что Cortana не женщина. «Она знает, что пол есть только у биологических существ, а она не такая, у неё пола нет», — пояснила старший сценарист Cortana Дебора Харрисон.

Тем не менее разработчики Cortana серьёзно обеспокоены стереотипами о женщинах, поэтому делают всё возможное, чтобы их избегать. Они часто обсуждают, как реагировать на тенденцию среди некоторых пользователей провоцировать Cortana на вульгарные разговоры и разговоры о сексе.

Перед запуском новых функций команда тщательно обдумывает поведение и речь Cortana. Например, когда шла работа над функцией проверки электронной почты на наличие данных обещаний о встрече, сценаристы спорили, как это подать. Фраза «Ты сказал, что хотел встретиться с тем-то и тем-то» казалась им слишком настойчивой. Также они сомневались насчёт уместности шуток на тему «Звёздных войн».

Группа авторов из соседнего кампуса Microsoft, которая работала над ботом Tay, видимо, не учла возможные последствия, пишет The Washington Post. Компания представила Tay в марте 2016 года — это бот с ИИ в Twitter, которые повторяет высказывания пользователей. Через несколько часов после запуска он начал говорить как нацист, и Microsoft вынуждена была отключить его.

«Мы сделаем всё возможное, чтобы ограничить технические эксплойты, но важно понимать, что мы не можем полностью предсказать все возможные злоупотребления людей без обучения на ошибках», — заявили тогда в Microsoft.

Подобные инциденты отражают фундаментальную проблему в создании ИИ, пишет The Washington Post: отношение виртуального помощника и человека. Самый сложный вопрос для сценаристов и проектировщиков: виртуальный помощник должен быть чисто функциональным или же он должен стремиться к эмоциональной связи с пользователем?

Марк Стивен Медоуз, основатель стартапа Botanic.io по разработке виртуальных помощников, способных взаимодействовать с людьми, в разговоре с The Washington Post напомнил об эффекте «зловещей долины», когда человекоподобные роботы вызывают у людей отвращение вместо сопереживания.

По этой причине многие разработчики ИИ считают необходимым добавить в свой проект какой-нибудь странный элемент или дефект, сигнализирующий о том, что виртуальный помощник не человек и не стремится им быть, пояснил он. По его словам, без таких дефектов роботы казались бы холодными и отталкивающими и, возможно, не смогли бы покорить публику.

Медоуз отметил, что от персонифицированных сервисов люди всегда ждут больше, чем от аналогичных автоматизированных приложений. Он подчеркнул, что для ИИ, который чему-то учится в процессе взаимодействия с пользователем, речь и поведение человека — это ящик Пандоры.

Твитнуть
Поделиться
Поделиться

В избр.

Ком.

©  vc.ru