Motoryzacja

Hamowanie fantomowe koszmarem Tesli. Spowodowało karambol

Kacper Cembrowski
11

Autonomiczna jazda ponownie spowodowała wypadek. Hamowanie fantomowe spowodowało karambol.

Kolejny błąd Tesli. FSD zawiodło

Pojawił się materiał wideo z drogi w San Francisco, na której w listopadzie miał miejsce wypadek spowodowany przez Teslę. Nagranie ewidentnie wskazuje na problem w postaci fantomowego hamowania (czyli zatrzymania się samochodu w momencie, w którym w wyniku błędu wykryje przed sobą nieistniejącą przeszkodę) wraz z nieudolną zmianą pasa, co w konsekwencji doprowadziło do zderzenia ośmiu samochodów.

Całość działa się na moście Bay Bridge i spowodowała zatrzymanie ruchu drogowego na ponad godzinę. W wypadku ucierpiało 9 osób, w tym 2-letnie dziecko. Kierowca Tesli powiedział policji, że była to wina samochodu, który „jechał w pełni autonomicznie”. No właśnie, ale czy na pewno?

System nie jest doskonały, lecz kierowca nie zachował ostrożności

W tym miejscu należy zaznaczyć, że Tesla nie oferuje “w pełni autonomicznego trybu”. Firma Elona Muska, chociaż ma aspiracje i ambicje, by kiedyś ich samochody były prawdziwymi AV, mogącymi nawet świadczyć usługi taksówkarskie w momencie, w których właściciel pojazdu z niego nie korzysta, to jeszcze nie oferuje takiej możliwości.

Źródło: Depositphotos

Oczywiście, jest FSD (Full Self-Driving), lecz w wersji Beta — i pomimo dość mylącej nazwy, w tej chwili jest to wyłącznie asystent kierowcy „poziomu drugiego”. Oznacza to, że chociaż samochód faktycznie potrafi sam jeździć i odnaleźć się na drodze w lepszy lub gorszy sposób (co niedawno przetestował jeden z YouTuberów, o czym pisaliśmy w artykule pod tym linkiem) to kierowca ma cały czas być uważny i móc w dowolnej chwili przejąć sterowanie nad pojazdem. To zresztą jest sprawdzane przez sam samochód, który kontroluje, czy kierowca patrzy na drogę, czy nie zwraca na to uwagi, rozglądając się po samochodzie lub patrząc się w smartfon, oraz sprawdza, czy kierowca trzyma ręce na kierownicy.

Systemy Tesli nie są idealne i oczywiście samochód popełnił błąd w tej sytuacji, a taki problem nie powinien w ogóle wystąpić — nie zmienia to jednak tego, że system nie jest odpowiedzialny za to zdarzenie. Cała wina leży po stronie kierowcy, który nie był uważny i nie zastosował się do zaleceń Tesli i zasad wczesnej wersji FSD.

Źródło: Depositphotos

Policja zdaje sobie sprawę z tego, kto naprawdę zawinił

Mimo zapewnień kierowcy, dotyczących tego, że samochód jechał w trybie „pełnej autonomii”, policja doskonale zdawała sobie sprawę z możliwości i funkcji Tesli. Raport z wypadku był następujący:

P-1 (P - osoba) stwierdził, że V-1 (V - pojazd) był w trybie pełnej autonomicznej jazdy w momencie wypadku. Nie jestem w stanie zweryfikować, czy funkcja Full Self-Driving V-1 była aktywna w momencie wypadku. W dniu 24.11.2022 roku najnowsza wersja Tesla Full Self-Driving Beta miała 11 lat i jest klasyfikowana jako SAE International Level 2. SAE International Level 2 nie jest klasyfikowana jako pojazd autonomiczny. Zgodnie z klasyfikacją poziomu 2, człowiek na siedzeniu kierowcy musi stale nadzorować funkcje wspomagające, w tym kierowanie, hamowanie lub przyspieszanie w razie potrzeby, aby zachować bezpieczeństwo. Jeśli oprogramowanie Full Self-Driving działa nieprawidłowo, P-1 powinien ręcznie przejąć kontrolę nad V-1, zastępując funkcję Full Self-Driving.

Źródło: Depositphotos

Chociaż jesteśmy coraz bliżej AV, to nie da się ukryć, że jest to jeszcze melodia przyszłości. Nie jest to jeszcze perfekcyjne rozwiązanie i pomimo wielu prac, firma CEO SpaceX i Twittera nie zdołała osiągnąć zamierzonego efektu.

Źródło: Ken Klippenstein (Twitter)

Stock Image from Depositphotos

Hej, jesteśmy na Google News - Obserwuj to, co ważne w techu