Amerykański urząd ds. bezpieczeństwa ruchu drogowego opublikował raport ze śledztwa w sprawie wypadków samochodów Tesla. Według ustaleń urzędników, funkcja autopilota jest wadliwa i przyczyniła się do śmiertelnych wypadków.
Samochody elektryczne Tesli zdobyły ogromną popularność dzięki swojej innowacyjności na rynku motoryzacyjnym. Zaawansowane funkcje, takie jak autopilot, przyczyniły się do rewolucji w sposobie, w jaki ludzie postrzegają przyszłość mobilności.
Rzeczywistość może być zupełnie inna. Amerykański urząd ds. bezpieczeństwa ruchu drogowego (NHTSA – Narodowa Administracja Bezpieczeństwa Ruchu Drogowego) w 2021 r. rozpoczął śledztwo w sprawie autopilota w samochodach Tesla. Wyniki raportu wyglądają interesująco. To już kolejne problemy, po ostatnich doniesieniach o wadliwych pedałach przyspieszania w modelu Tesla Cybertruck.
Raport komisji Bezpieczeństwa Ruchu Drogowego
NHTSA zbadała wypadki samochodów Tesla, które miały miejsce od stycznia 2018 r. do sierpnia 2023 r. Łącznie odnotowano 956 incydentów, w których śmierć poniosło 29 osób. Sprawę omawia serwis The Verge.
Oprócz tego zarejestrowano 211 wypadków, gdzie samochód uderzył przodem w inny pojazd lub przeszkodę – takie wypadki, często będące najpoważniejszymi, skutkowały śmiercią 14 osób oraz obrażeniami 49. Większość z tych incydentów miała miejsce po zmroku, a oprogramowanie samochodów ignorowało znaki ostrzegawcze, w tym światła, flary, stożki i podświetlane tablice.
NHTSA przyznaje, że prowadzone przez nią badanie może być niekompletne ze względu na „luki” w danych telemetrycznych. Istnieje możliwość, że liczba wypadków z udziałem autopilota i FSD jest znacznie wyższa, niż wynika to z ustaleń komisji.
Autopilot Tesli jest wadliwy
Autorzy raportu wskazują, że autopilot jest wadliwy i „doprowadził do przewidywalnych nadużyć i możliwych do uniknięcia awarii”. Największe zarzuty dotyczą słabego systemu angażowania kierowcy, który koliduje z ograniczonymi możliwościami operacyjnymi funkcji autopilota, powodując krytyczną lukę w bezpieczeństwie.
W 59 zbadanych przypadkach kierowcy Tesli mieli wystarczająco dużo czasu (powyżej 5 sekund), aby zareagować. Przeglądając dzienniki wypadków i dane dostarczone przez Teslę, NHTSA stwierdziła, że w większości analizowanych wypadków kierowcy nie hamowali i nie skręcali, aby uniknąć zagrożenia.
W przeciwieństwie do innych systemów, autopilot Tesli zamiast pozwolić kierowcom na skręt, po prostu wyłączał się. NHTSA twierdzi, że „zniechęca to” kierowców do uważnego prowadzenia pojazdu.
Nazwa autopilot wprowadza w błąd
Tesla ostrzega swoich klientów, że podczas korzystania z autopilota i systemu FSD (Full Self Driving) muszą zachować ostrożność, co obejmuje trzymanie rąk na kierownicy i patrzenie na drogę.
NHTSA twierdzi jednak, że nawet nazwa „autopilot” wprowadza klientów w błąd, sugerując, że kierowcy nie mają kontroli nad pojazdem. Podczas gdy inne firmy stosują tylko określenia „wspomaganie”, produkty Tesli mogą mylnie wabić kierowców i sugerować obecność funkcji, których nie ma w rzeczywistości.
Prokurator generalny Kalifornii i stanowy Departament Pojazdów Silnikowych prowadzą dochodzenie w sprawie Tesli pod kątem wprowadzającego w błąd marketingu i marki.
źródło: The Verge, Tech Report, foto: Reddit/boddhya
Zgłoś naruszenie/Błąd
Oryginalne źródło ZOBACZ
Dodaj kanał RSS
Musisz być zalogowanym aby zaproponować nowy kanal RSS