MIT запустил Moral Machine: эксперимент по изучение того, как должны поступать беспилотные машины

MIT решил внести свой вклад в создании беспилотных машин интересным способом — решить морально-философский вопрос — как должен действовать беспилотный автомобиль в той или иной ситуации.
690d5f4ad7ee40f6803a57b9887b82e7.PNG

Интерес данного исследования состоит еще и в том, что многие голосующие не имеют прав, а следовательно не знают ПДД, что внесёт своё влияние на результаты.

Основная суть теста — выяснить, что более приоритетный для людей или какие аспекты беспилотный автомобиль обязан принять в расчет:
1) Количество пострадавших (Поехать прямо не нарушая ПДД и убить 4 или нарушить ПДД и убить одного)
2) Сохранить пассажиров или сохранить пешеходов
3) Влияние красного сигнала светофора
4) Важность людей и животных
5) Люди с ожирением \ подтянутые люди

После прохождения теста вам покажут, как голосуют другие люди

Не хочу теста, хочу посмотреть результат!
b3a1d201d3094bc1a559cc4cacdb36a0.PNG
987fecaf3d7f4c74af16baa4edc30623.PNG

Исследование: moralmachine.mit.edu

Составим конкуренцию MIT, проведем свой опрос состоящий всего из одного пункта.
Как должен поступить автопилот в следующей ситуации:

Вы двигаетесь по дороге на которую неожиданно выскакивает ребёнок, скорость автомобиля больше чем тормозной путь до ребёнка, что должен сделать автопилот?

Комментарии (6)

  • 17 января 2017 в 13:01 (комментарий был изменён)

    +2

    Бредовые варианты в опроснике, простите. Из приведённых вообще допустим только один — первый. Остальные в принципе не учитывают такое понятие как «динамика окружения».
    Сейчас в момент принятия решения ребёнок может быть стоит на «середине» траектории, а что будет через 2–3 секунды (столько обычно машина скользит с 60–80 км/ч по сухому асфальту)?

    Исходите из трёх предпосылок:
    1. Машина считает быстрее человека и у неё не бывает «столбняка»
    2. Перед принятием решения Вы должны построить карту возможных перемещений окружающих объектов (и компьютер успеет это сделать)
    3. В ситуации наезда не только компьютер автомобиля может принимать решения и изменять текущее движение.

    Например, один из возможных вариантов поведения, предписанный нормой подготовки детей к перемещению по улицам — «обеспечение заметности»:
    1. Подать звуковой сигнал и включить дальний свет одновременно с торможением.
    2. Отследить на реакцию объектов понять сценарии движения объектов (ребёнок и старик) — нейросеть вполне можно обучить прогнозировать на одну-две секунды вперед.
    3. Принять решение по движению с минимизацией столкновения в пределах минимизации повреждения людей.
    3+ Рассмотреть возможность частичного повреждения автомобиля для снижения скорости, если прогнозируемое движение ребёнка происходит в сторону уменьшения тяжести столкновения, в том числе касательное столкновение со встречным автомобилем.

  • 17 января 2017 в 13:15 (комментарий был изменён)

    0

    Не хотел бы я ездить на автомобиле, запрограммированном так, как голосует большинство… гм… пипла.
    На хабре результаты намного более нормальные:)
  • 17 января 2017 в 13:22

    +1

    Интересный опрос, но очевидно, что реальные робо-автомобили будет действовать согласно ПДД. Поэтому, если взять это за основу, то не имеет значение ни пол, ни возраст, ни количество потенциальных жертв ДТП. Если автомобиль будет убивать своих владельцев ради спасения жизней придурков (пусть и большого количества), бегущих на красный, то такой автомобиль никто не купит.
    • 17 января 2017 в 13:34 (комментарий был изменён)

      0

      Кажется, вы не совсем понимаете ход мыслей противоположной стороны. Фактически, они хотят изменить ПДД с учетом возможностей автомобилей.


      Я их точки зрения не разделяю, но аргумент «ПДД менять нельзя потому что это противоречит ПДД» нелеп. Тут лучше бы объяснить, почему в ПДД написано то, что там написано.

  • 17 января 2017 в 13:31

    0

    Уже два раза писал про это «исследование», и напишу еще раз.


    Может быть, та общая статистика, которую они собирают — и выглядит значимой (хотя при таком количестве мусора я в этом сомневаюсь — к примеру, я сам лично раз 10 «протыкивал» в этом тесте левую картинку), но индивидуальные «результаты», показываемые в конце, не выдерживают критики.


    Блин, у них 9 исследуемых параметров — и всего 13 испытаний! При таком наборе обязательно можно найти хотя бы одну ложную корелляцию, а то и не одну. К примеру, в этот раз, я, протыкивая левую картинку, с удивлением узнал что я безусловно предпочитаю сбивать толстых и людей с низкой общественной значимостью. Просто потому что соответствующие персонажи ни разу не появились справа!


    Кроме того, лично мне не нравится сама постановка вопроса — «кого давить?» Надо прекратить решать неразрешимые проблемы и сосредоточить усилия на том, чтобы таких ситуаций не возникало.

  • 17 января 2017 в 13:58 (комментарий был изменён)

    +2

    Прошлым летом уже обсудили на двести комментариев здесь https://geektimes.ru/post/279404/

    Может, не надо по второму разу?

© Habrahabr.ru