Независимое исследование показало, что Tesla на автопилоте на небольшой скорости три раза сбила манекена-ребенка

_g_7ag794e602pdfo7cvpnb6xs8.jpeg

Исследователи проекта Dawn Project несколько раз проверили работу системы автопилота Full Self-Driving (FSD) электромобиля Tesla Model 3 на распознавание неподвижно стоящих манекенов на дороге впереди. В итоге трёх тестов на скорости 40 км/ч три манекена-ребенка были сбиты в контролируемых условиях при испытаниях.
Эксперты Dawn Project проводили тест работы FSD на закрытой территории на испытательном полигоне в Калифорнии, США. В пояснении к испытанию указано, что режим FSD в машине был включён.

nytrwf-b9xx74whi9ufynloar-k.jpegВодитель, якобы, во время теста включал систему автопилота FSD.

По данным исследования, Tesla Model 3 с последними обновлениями ни разу не затормозила перед небольшим препятствием в виде трёх по-разному одетых манекенов-детей (красный, белый и темный цвет одежды тут не помог).

l7gmyjvkg9bg-iulywf1ow68uh4.jpeg

В рамках тестов Dawn Project Tesla Model 3 несколько раз разгонялась до 40 км/ч. В каждой попытке система FSD не смогла обнаружить неподвижный манекен на дороге. Машина ударяла его снова и снова без попытки вмешательства в ситуацию и информировании водителя.


Tesla считает, что работа системы помощи водителю Full Self-Driving (FSD) является полностью безопасной при выполнении всех рекомендаций компании — руки на руле и внимательно смотреть на дорожную обстановку. В четвёртом квартале 2021 года Tesla зафиксировала одну аварию на каждые 6,9 млн км использования системы FSD, тогда как, по данным Национального управления по безопасности дорожного движения США, авария в обычных машинах происходит каждые 640 тыс. км, когда за рулём человек.

Предыдущее видео Dawn Project по поводу проблем с FSD.

В начале августа Департамент транспорта Калифорнии (DMV) обвинил Tesla в мошенничестве при маркетинге систем помощи водителю Autopilot и Full Self Driving (FSD). В худшем случае компания может лишиться лицензий на продажу своих авто в штате. Департамент подал два заявления в Управление административных слушаний Калифорнии, где указал, что «вместо того, чтобы просто обозначать названия продуктов или торговых марок, эти ярлыки Autopilot и Full Self Driving означают, что автомобили, оснащённые функциями ADAS, будут работать как автономные транспортные средства. На практике же автомобили не работали автономно во время рекламной кампании этих функций и не работают сейчас».

В июне эксперты Национального управления по безопасности дорожного движения США (National Highway Traffic Safety Administration, NHTSA) выяснили, что в большинстве зафиксированных случаев система автопилота Tesla отключается за несколько секунд до аварии. Разработчики сделали так, чтобы привлечь компанию в суде по пункту обвинения в причинении умышленного ущерба из-за работы автопилота было нельзя.

В апреле СМИ сообщили, что Tesla в режиме Smart Summon (режим удалённого управления при помощи систем автопилота) не распознала препятствие в виде хвоста небольшого летающего средства на аэродроме (реактивного самолета бизнес-класса Cirrus SF50 Vision Jet) и позволила совершить столкновение со стоящим на стоянке небольшим самолетом без людей на борту. Причем машина продолжала некоторое время движение после столкновения и в итоге развернула самолет почти на 90 градусов.

© Habrahabr.ru