Motoryzacja

Tesla na cenzurowanym. Analiza niemal 1000 wypadków jest jednoznaczna

Kamil Pieczonka
Tesla na cenzurowanym. Analiza niemal 1000 wypadków jest jednoznaczna
Reklama

Tesla kontynuuje kiepską passę, tym razem za sprawą amerykańskiego urzędu odpowiedzialnego za bezpieczeństwo na drogach - NHTSA, który opublikował raport z niemal 1000 wypadków, w których uczestniczyły samochody tej firmy. Wnioski są druzgocące.

Autopilot to nie autopilot

Amerykański urząd ds. bezpieczeństwa ruchu drogowego (National Highway Traffic Safety Administration - NHTSA) opublikował wyniki analizy blisko 1000 wypadków w jakich brały udział samochody Tesli od stycznia 2018 roku do sierpnia 2023 roku. Połowa z nich była analizowana bardzo drobiazgowo co pozwoliło na wyciągnięcie bardzo ciekawych wniosków. Urząd przyglądał się przede wszystkim wypadkom, które doszły do skutku podczas działania funkcji Autopilot. Jest to system autonomicznej jazdy poziomu drugiego, który Tesla od początku bardzo mocno promuje wraz z funkcją Full-Self Driving. Niestety w wyniku tego marketingu, wielu użytkowników nie jest świadomych jak poważne ograniczenia ma Autopilot, co przełożyło się niestety na 29 ofiar śmiertelnych.

Reklama

Śledztwo prowadzone przez NHTSA dotyczyło głównie funkcji Autopilot, dlatego dla porządku warto odnotować, że według analizy w ponad połowie badanych wypadków (489) nie można było stwierdzić bezpośredniej winy samochodu. Były to przypadki gdy winę ponosił inny pojazd/kierowca lub gdy nie udało się stwierdzić czy Autopilot był aktywny w momencie zderzenia. Pozostałe przypadki (467) można natomiast podzielić mniej więcej na trzy kategorie - uderzenie czołowe (211 wypadków), wypadnięcie z drogi z powodu śliskiej nawierzchni (145) i brak reakcji kierowcy gdy Autopilot został wyłączony (111). Szczególnie dotkliwa w skutkach jest ta pierwsza kategoria, która była przyczyną 13 ofiar śmiertelnych.

Najgorszy jest jednak fakt, który poruszony został w dokładnej analizie 143 wypadków z uderzeniem czołowym. W 109 przypadkach NHTSA było w stanie określić jak dużo czasu miał kierowca na reakcję i uniknięcie wypadku. Okazuje się, że w ponad połowie przypadków (59) było to ponad 5 sekund. W 42 przypadkach było to od 2 do 5 sekund, a tylko 8 można było uniknąć reagując w czasie poniżej 2 sekund. Jednoznacznie oznacza to, że kierowca, który korzystał z Autopilota po prostu nie patrzył na drogę. Głównym zarzutem NHTSA w stronę Tesli jest właśnie fakt, że samochody nie informują kierowcy w wystarczającym stopniu, że musi nadal pozostać skupiony na drodze, nawet gry Autopilot jest aktywny. Takie zachowanie jest też przyczyną wypadków związanych z wypadnięciem z drogi.

NHTSA zwraca również uwagę na fakt, że kierowcy często nie są świadomi, że ich ingerencja w ruch pojazdu automatycznie wyłącza Autopilota. Brzmi to groteskowo, ale jeśli kierowca skoryguje działanie systemu to jest on wyłączony, a kierowcy często nie zdają sobie z tego sprawy, co kończyło się kolizją lub wypadnięciem z drogi. Tesla musiała już zaktualizować swoje oprogramowanie w grudniu zeszłego roku, ale NHTSA nadal nie jest przekonane czy wprowadzone zmiany są wystarczające i będzie monitorować sytuację. Biorąc to wszystko pod uwagę, ciężko optymistycznie patrzeć na zapowiedzi Elona Muska odnośnie robotaksówek...

źródło: NHTSA 1 / 2

Hej, jesteśmy na Google News - Obserwuj to, co ważne w techu

Reklama