Должны ли роботы учить детей разговаривать?

348bed4a5f644a6eb228bbf54d8452e7.jpgЕдва мы придумали само понятие «робот», как начали мечтать о том, как роботы будут во всём помогать нам. И не просто помогать, а заменять нас во всевозможных сферах деятельности. Сейчас уже пришло понимание, что столь сложные роботы появятся ещё не скоро. Но мы к этому стремимся, разрабатывая технологии искусственного интеллекта. И когда-нибудь всё-таки сбудется человеческая мечта об универсально роботе, способном и посуду помыть, и в магазин сходить, и за детьми приглядеть. А приглядывать можно по-разному. Велик соблазн спихнуть на робота и не слишком–то приятные обязанности по обучению подрастающего поколения, в том числе и самым азам. Например, роботы-няньки могли бы не только следить, чтобы подопечные не покалечились, были накормлены и в чистых трусах. Всё-равно ведь сидят с ребёнком, так пусть поучат, например, говорить. И здесь возникает проблема.

Суть её вовсе не в том, как будут выглядеть эти самые роботы, их форма может быть любой — хоть ящик на колёсиках. Нет, всё гораздо глубже и сложнее. Обучение ребёнка речи строится по определённым алгоритмам. И эти алгоритмы не могут быть нейтральными, они всегда будут отражать культуру, идеологию, жизненные принципы, философию наконец, тех людей, кто их разрабатывает. И стоит ли доверять формирование культуры речи неизвестным людям, возможно, идеологический чуждым? Любой алгоритм, как известно, представляет собой некий набор инструкций, которым нужно следовать в заданном порядке. Конечно, можно этого и не делать, но в будущем, когда робототехника станет более развитой, а нас будет окружать интернет вещей, услужливо предсказывающий наши нужды и желания, вряд ли мы станем задумываться над подобными вопросами. Подавляющее большинство людей с радостью примут предложение робота (читай, компьютера) помочь в обучении ребёнка.

Однако стоит ли слепо доверять каким-бы то ни было программам обучения, созданным по неизвестно кем разработанным методикам? Этим вопросом можно задаваться уже сейчас, не ожидая наступления светлого роботизированного будущего. Уже существует немало обучающих приложений для детей по литературе, иностранным языкам, истории. И мы никогда не спрашиваем себя, носителями каких жизненных принципов являются люди, чьи алгоритмы легли в основу этих приложений. Как и в будущем мало кому придёт в голову задуматься о таких, на первый взгляд, эфемерных вещая, доверяя роботу или компьютеру обучение своего ребёнка.

Вопрос «этики алгоритмов» применительно к обучению детей гораздо актуальнее, чем может показаться. Скажем, компания Mattel, производитель всемирно известных кукол Barbie, разрабатывает новую модель, которая сможет поддерживать несложный диалог с ребёнком. Это станет возможным благодаря беспроводному подключению куклы к облачному сервису, в котором будут проходить все вычисления. Этакий аналог Siri для маленьких девочек. В результате мы получим: а) куклу, которая неизвестно что может ответить ребёнку, и б) устройство с микрофоном, постоянно подключённое к сети и транслирующее всё, что происходит вокруг. Насколько этично создание подобной игрушки? Отбросим пока возможность прослушки. Очевидно, что сотни тысяч или даже миллионы подобных кукол будут «общаться» по неким заложенным алгоритмам. А дети по определению внушаемы, легко перенимают речевые обороты, способы построения предложений и ведения беседы, словарный запас. Вы правда считаете хорошей идеей доверить формирование социальных и речевых навыков ребёнка пластиковой кукле и куче неизвестных людей, разрабатывавших алгоритмы?

6c85a583232341c3adde66fd4cf39d57.jpg

Манипулирование с помощью алгоритмов используется сплошь и рядом. Например, Twitter формирует ленту популярных топиков таким образом, чтобы чаще менять фокус общественного внимания. С одной стороны, это позволяет быстрее забывать о столь спорных культурных явлениях, как Gangnam Style и Джастин Бибер. А с другой — важные для общества темы и политические события так же быстро могут быть убраны «со сцены», если они кому-то не угодны. Причём это ни в коей мере не цензура, а лишь грамотные алгоритмы ранжирования.

Ещё один известный пример манипулирования с помощью алгоритмов: в прошлом году Facebook провёл эксперимент на 700 000 пользователях. Исследователи решили выяснить, как формирование новостной ленты влияет на настроение пользователей Facebook. Для этого использовались разные алгоритмы ранжирования, благодаря которым у кого-то лента получалась наполнена приятными и позитивными постами, а у кого-то — негативными и отталкивающими.

Таких исследований проводится немало. Слишком это соблазнительный инструмент влияния — алгоритмы. Поэтому уже сейчас нужно задаться вопросом: как защитить детей, которые не способны в принципе защититься от подобных манипуляций? И как нам всем защищаться от повсеместного манипулирования в будущем?

В потребительском сегменте можно даже не рассматривать вариант с созданием сред или устройств, в которых каждое изменение требует одобрения надзорного органа. Это на корню губит удобство и скорость использования. Однако есть ряд сфер, где регулирование используемых алгоритмов всё же может быть внедрено. Например, в финансовом секторе: автоматизированные биржевые торговые системы имеют очень большое влияние на экономику, поэтому уже обсуждается возможность введения контроля за алгоритмической составляющей этих систем. Не исключено, что рано или поздно то же самое произойдёт и с интернет-поисковиками, уж слишком часто возникают скандалы с тем же Google в разных странах.

Этика в разработке алгоритмов — вовсе не надуманная проблема из фантастики про роботов. С расширением сети алгоритмы будут обретать всё большее значение, постепенно формируя наше общество. Возможно, уже пришло время обсудить будущие правила игры.

© Habrahabr.ru