32

Autopilot Tesli nie jest wcale bezpieczniejszy od normalnego kierowcy

tesla
Dążymy do automatyzacji licząc po cichu na to, że komputer jest mądrzejszy od człowieka lub popełnia mniej błędów. I za kilkanaście lat autopiloty w autach - w takiej lub innej formie - będą moim zdaniem standardem. Ale nie takim, jak w filmach science fiction, gdzie przejmą kontrolę nad pojazdem całkowicie. I może to jest lepszy scenariusz.

Nie zauważyłem by któryś producent samochodów zdecydował się na w pełni autonomicznego autopilota (o ile jest to możliwe w takim stopniu jak właśnie we wspomnianych filmach sci-fi). Nie inaczej jest w przypadku Tesli, gdzie cyfrowy kierowca wymaga od tego prawdziwego, by zwracał uwagę na drogę. Kiedy wyczuwa, że przez długi czas nie było dłoni na kierownicy, wysyła sygnały dźwiękowe, wyświetla informację na ekranie, a później zwalnia i zatrzymuje samochód. Jak to jednak bywa w życiu, da się go oszukać.

Systemy monitorowania prawdziwego kierowcy są różne, od kamery śledzącej jego zaangażowanie w to, co dzieje się na drodze i w aucie aż po śledzenie oczu i ocenę jak często patrzy tam gdzie trzeba, a nie na telefon czy w sufit. I wtedy nawet trzymanie rąk na kierownicy nie pomaga, bo system samochodu wie, że to ściema.

Na pewno niejednokrotnie czytaliście o wypadkach Tesli i pojawiały się podejrzenia, że nie doszłoby do nich, gdyby kierowca interesował się tym, co dzieje się na drodze. Choćby podczas wypadku Tesli w Mountain View przejrzano logi systemu i znaleziono informacje o tym, że kierowca nie tylko nie zwracał uwagi na drogę, ale kilka minut przed wypadkiem grał online. Warto dodać, że ten brak uwagi kosztował go życie.

Jeden z naukowców MIT, Brian Reimer zarzuca wręcz Tesli, że zasłaniając się raportami o zmniejszonej liczbie wypadków, nie przykłada pełnych starań do systemu monitoringu kierowcy. A to z kilku powodów – bo ciągłe monitorowanie mogłoby wystraszyć klientów, bo systemy nie są idealne i mogą być irytujące dla kierowcy, tańsze modele byłby przez nie droższe, a aktualne autopiloty są odpowiednio skuteczne.

We wspomnianych raportach, na które powołuje się Tesla jest jednak sporo nieścisłości. Normalne wypadki nie zawsze są zgłaszane, a statystyki dysponują przede wszystkim danymi z kraks zgłoszonych na policję. Jak robi Tesla ze swoimi autami? Nie wiadomo, otwarcie się poduszki też może być przecież uznawane za wypadek, skoro taka informacja leci na serwery firmy. Jeśli więc nie do końca wiadomo co w zasadzie Tesla uznaje za wypadek, ciężko porównać takie zdarzenia do tego co znamy z klasycznego samochodowego świata. Ah, zupełnie bym zapomniał. Chodzi o dane, według których w 4 kwartale 2019 roku zarejestrowano 3,07 miliona przejechanych mil bez wypadku kiedy autopilot był włączony. Dla kontrastu kiedy był wyłączony, było to 2,1 miliona mil. A jeszcze większy kontrast pojawia się kiedy dodamy do tego informację, że w USA notuje się wypadek na każde 479 tysięcy przejechanych mil. Tak się to trochę wszystko nie spina, prawda?

Warto też wspomnieć, że w przypadku autopilota aż 94% przejechanych mil to autostrady i trasy ekspresowe, które są bezpieczniejsze od normalnych dróg.

Analizując tego typu sytuacje, dodając do tego jak wiele osób jeździ po drogach mniej bezpiecznych (wiejskich, miejskich itp) Reimerowi wyszło coś zupełnie innego – 30% mniej wypadków ma teoretycznie miejsce gdy za kierownicą siedzi kierowca, a nie autopilot. Chyba sami przyznacie, że nijak się to ma do informacji przekazywanych przez Teslę. Twierdzi więc, że w optymistycznym scenariuszu takie zestawienie wypadków może być najwyżej podobne, co świadczyłoby o braku przewagi autopilota nad zwykłym kierowcą.

Dlatego według Reimera tak ważne jest by Tesla dołożyła wszelkich starań przy produkcji odpowiednio skutecznego systemu monitoringu kierowcy. Takiego, który będzie działał świetnie, a jednocześnie nie był natrętny i nie zniechęcał do korzystania z niego – jednocześnie odpowiednio zabezpieczając rejestrowane dane.

Nie jest natomiast tajemnicą, że same Tesle to bardzo bezpieczne samochody. Osiągają odpowiednio dobre wyniki w testach zderzeniowych, a systemy antykolizyjne plasują je bardzo wysoko. Autopilot nie wydaje się jednak tak bezpieczny jak chcielibyśmy aby był. W idealnym świecie taki system nie doprowadziłby do żadnego wypadku, znacząco poprawiał bezpieczeństwo na drogach, reagował szybciej, lepiej i rozsądniej od normalnego kierowcy. Ten jest przecież tylko człowiekiem, popełnia błędy, męczy się, podejmuje nieodpowiedzialne decyzje lub jest po prostu roztargniony. Teoretycznie maszyna nie ma tych wad, a jednak doprowadza do wypadków, więc jednak do ideału wciąż daleko.

źródło