Motoryzacja

Autopilot Tesli zabił kierowcę? Wstrzymałbym się z takimi komentarzami

Maciej Sikorski
Autopilot Tesli zabił kierowcę? Wstrzymałbym się z takimi komentarzami
56

Stało się: jest ofiara śmiertelna eksperymentów z autonomiczną jazdą. Ten dzień musiał nadejść, któryś z producentów musiał się zmierzyć z tym problemem. Kilka kwartałów temu pisałem o wypadku autonomicznego pojazdu Google, wówczas obyło się bez ofiar - tym razem kierowca miał mniej szczęścia. Samochód biorący udział w wypadku to Tesla model S, kierowca używał trybu Autopilot, który ostatnio robi furorę w social media. Na firmę spadnie fala krytyki? Możliwe, ale nie jestem pewien, czy jest ją za co obwiniać.

Autopilot Tesli nie jest rozwiązaniem, które można dzisiaj nazwać autonomicznym. I trzeba to podkreślić już na wstępie. Producent wspomina o wersji beta, testach, eksperymencie, rozwijaniu systemu, uczula kierowców, by mieli to na uwadze: podczas jazdy w tym trybie muszą trzymać ręce na kierownicy, kontrolować jazdę. Bo Autopilot to asystent jazdy, a nie mechaniczny szofer. Tymczasem ludzie zdają się być głusi na te apele i ostrzeżenia - niedawno Sieć obiegły zdjęcia kierowcy, który spał w swojej Tesli podczas jazdy, inni właściciele tych aut chwalą się tym, co robią podczas jazdy. Ot, ciekawa nowinka, fajna zabawa, patrzcie, co potrafi moje auto. O problemie pisał już Jakub.

Nie zauważył Autopilot, zauważyłby kierowca?

Do śmiertelnego wypadku doszło na początku maja na Floydzie. Teraz sprawą zajmą się urzędnicy z National Highway Traffic Safety Administration, którzy mają zbadać zdarzenie pod kątem roli Autopilota, odpowiedzialności maszyny za wypadek. Jakie były okoliczności? Na oficjalnym blogu Tesli czytamy o naczepie ciężarówki, w którą wbił się samochód. Dużo miejsca między szosą a jej spodem sprawiło, że samochód mocno wjechał pod duży pojazd, zerwany został dach. Raczej nie do przeżycia. Pojawia się jednak pytanie o to, dlaczego Model S nie zatrzymał się lub przynajmniej nie zwolnił przed zderzeniem? Najprawdopodobniej Autopilot nie rozpoznał białej ciężarówki na tle jasnego nieba.

Autopilot Tesli nie jest rozwiązaniem, które można dzisiaj nazwać autonomicznym. I trzeba to podkreślić już na wstępie. Producent wspomina o wersji beta, testach, eksperymencie, rozwijaniu systemu, uczula kierowców, by mieli to na uwadze: podczas jazdy w tym trybie muszą trzymać ręce na kierownicy, kontrolować jazdę. Bo Autopilot to asystent jazdy, a nie mechaniczny szofer. Tymczasem ludzie zdają się być głusi na te apele i ostrzeżenia - niedawno Sieć obiegły zdjęcia kierowcy, który spał w swojej Tesli podczas jazdy, inni właściciele tych aut chwalą się tym, co robią podczas jazdy. Ot, ciekawa nowinka, fajna zabawa, patrzcie, co potrafi moje auto. O problemie pisał już Jakub.

Nie zauważył Autopilot, zauważyłby kierowca?

Do śmiertelnego wypadku doszło na początku maja na Floydzie. Teraz sprawą zajmą się urzędnicy z National Highway Traffic Safety Administration, którzy mają zbadać zdarzenie pod kątem roli Autopilota, odpowiedzialności maszyny za wypadek. Jakie były okoliczności? Na oficjalnym blogu Tesli czytamy o naczepie ciężarówki, w którą wbił się samochód. Dużo miejsca między szosą a jej spodem sprawiło, że samochód mocno wjechał pod duży pojazd, zerwany został dach. Raczej nie do przeżycia. Pojawia się jednak pytanie o to, dlaczego Model S nie zatrzymał się lub przynajmniej nie zwolnił przed zderzeniem? Najprawdopodobniej Autopilot nie rozpoznał białej ciężarówki na tle jasnego nieba.

Pomylił się system, ale pomylił się też człowiek. Bo można przyjąć, że i on nie zauważył przed sobą dużego pojazdu. Jest też inne wytłumaczenie: kierowca nie kontrolował samochodu podczas jazdy, oddał mu pełną kontrolę nad tym procesem. Może spał, może rozmawiał przez telefon albo czytał - nie wiemy. To jednak powinien być sygnał dla pozostałych kierowców: nie popełniajcie błędów tego typu, nie nagrywajcie filmików, na ktorych robicie wszystko, prócz trzymania rąk na kierownicy. To jest asystent. Tylko i aż. Przy okazji filmików, można dodać, że ofiara wypadku w kwietniu umieściła w serwisie YT materiał, na którym uwieczniono niebezpieczny manewr na autostradzie - wtedy Tesla zareagowała poprawnie, kto wie, jak zachowywałby się kierowca? Co ciekawe, Elon Musk udostępniał wówczas ten film na Twitterze:

Tesla może mieć kłopot

Wspominałem o możliwym błędzie kierowcy, ale nie wykluczam też, że doszło do jakiejś awarii: może kierowca widział ciężarówkę, ale nie mógł zareagować, bo coś się zepsuło? Śledztwo to wykaże. Błędem będzie jednak przekonywanie, że ten wypadek potwierdza, iż autonomiczna jazda nie jest bezpieczna. Po pierwsze, to nie jest jeszcze autonomiczna jazda, a po drugie, Tesla w swym wpisie podkreśla, że wypadek śmiertelny miał miejsce po przejechaniu łącznie 130 mln mil w trybie Autopilot. To znacznie więcej niż w tradycyjnej jeździe, gdzie śmiertelny wypadek trafia się średnio raz na 60 mln mil - ograniczenie czynnika ludzkiego już przynosi efekty.

Oczywistym jest, że do wypadków z udziałem autonomicznych lub półautonomicznych samochodów będzie dochodzić. Nawet, jeśli całkowicie zdominują one szosy i będą się ze sobą komunikować. Jeżeli nie zawini człowiek, to błąd może popełnić system. Bo i on nie jest nieomylny. Z tym trzeba się pogodzić - nie ma w pełni bezpiecznych rozwiązań, przecież ofiary śmiertelne ma na swoim "koncie" i segment smartfonów. Nie zmienia to faktu, że Tesla pewnie doczeka się słów krytyki, będzie przybywać pytań o okoliczności wypadku i odpowiedzialność producenta. Dobrze, bo niektóre kwestie trzeba wyjaśnić. Ale wskazywanie szybko winnych i stwierdzanie, że lepiej sobie dać spokój z tymi nowinkami, to nie będzie właściwa droga.

Pomylił się system, ale pomylił się też człowiek. Bo można przyjąć, że i on nie zauważył przed sobą dużego pojazdu. Jest też inne wytłumaczenie: kierowca nie kontrolował samochodu podczas jazdy, oddał mu pełną kontrolę nad tym procesem. Może spał, może rozmawiał przez telefon albo czytał - nie wiemy. To jednak powinien być sygnał dla pozostałych kierowców: nie popełniajcie błędów tego typu, nie nagrywajcie filmików, na ktorych robicie wszystko, prócz trzymania rąk na kierownicy. To jest asystent. Tylko i aż. Przy okazji filmików, można dodać, że ofiara wypadku w kwietniu umieściła w serwisie YT materiał, na którym uwieczniono niebezpieczny manewr na autostradzie - wtedy Tesla zareagowała poprawnie, kto wie, jak zachowywałby się kierowca? Co ciekawe, Elon Musk udostępniał wówczas ten film na Twitterze:

Autopilot Tesli nie jest rozwiązaniem, które można dzisiaj nazwać autonomicznym. I trzeba to podkreślić już na wstępie. Producent wspomina o wersji beta, testach, eksperymencie, rozwijaniu systemu, uczula kierowców, by mieli to na uwadze: podczas jazdy w tym trybie muszą trzymać ręce na kierownicy, kontrolować jazdę. Bo Autopilot to asystent jazdy, a nie mechaniczny szofer. Tymczasem ludzie zdają się być głusi na te apele i ostrzeżenia - niedawno Sieć obiegły zdjęcia kierowcy, który spał w swojej Tesli podczas jazdy, inni właściciele tych aut chwalą się tym, co robią podczas jazdy. Ot, ciekawa nowinka, fajna zabawa, patrzcie, co potrafi moje auto. O problemie pisał już Jakub.

Nie zauważył Autopilot, zauważyłby kierowca?

Do śmiertelnego wypadku doszło na początku maja na Floydzie. Teraz sprawą zajmą się urzędnicy z National Highway Traffic Safety Administration, którzy mają zbadać zdarzenie pod kątem roli Autopilota, odpowiedzialności maszyny za wypadek. Jakie były okoliczności? Na oficjalnym blogu Tesli czytamy o naczepie ciężarówki, w którą wbił się samochód. Dużo miejsca między szosą a jej spodem sprawiło, że samochód mocno wjechał pod duży pojazd, zerwany został dach. Raczej nie do przeżycia. Pojawia się jednak pytanie o to, dlaczego Model S nie zatrzymał się lub przynajmniej nie zwolnił przed zderzeniem? Najprawdopodobniej Autopilot nie rozpoznał białej ciężarówki na tle jasnego nieba.

Pomylił się system, ale pomylił się też człowiek. Bo można przyjąć, że i on nie zauważył przed sobą dużego pojazdu. Jest też inne wytłumaczenie: kierowca nie kontrolował samochodu podczas jazdy, oddał mu pełną kontrolę nad tym procesem. Może spał, może rozmawiał przez telefon albo czytał - nie wiemy. To jednak powinien być sygnał dla pozostałych kierowców: nie popełniajcie błędów tego typu, nie nagrywajcie filmików, na ktorych robicie wszystko, prócz trzymania rąk na kierownicy. To jest asystent. Tylko i aż. Przy okazji filmików, można dodać, że ofiara wypadku w kwietniu umieściła w serwisie YT materiał, na którym uwieczniono niebezpieczny manewr na autostradzie - wtedy Tesla zareagowała poprawnie, kto wie, jak zachowywałby się kierowca? Co ciekawe, Elon Musk udostępniał wówczas ten film na Twitterze:

Tesla może mieć kłopot

Wspominałem o możliwym błędzie kierowcy, ale nie wykluczam też, że doszło do jakiejś awarii: może kierowca widział ciężarówkę, ale nie mógł zareagować, bo coś się zepsuło? Śledztwo to wykaże. Błędem będzie jednak przekonywanie, że ten wypadek potwierdza, iż autonomiczna jazda nie jest bezpieczna. Po pierwsze, to nie jest jeszcze autonomiczna jazda, a po drugie, Tesla w swym wpisie podkreśla, że wypadek śmiertelny miał miejsce po przejechaniu łącznie 130 mln mil w trybie Autopilot. To znacznie więcej niż w tradycyjnej jeździe, gdzie śmiertelny wypadek trafia się średnio raz na 60 mln mil - ograniczenie czynnika ludzkiego już przynosi efekty.

Oczywistym jest, że do wypadków z udziałem autonomicznych lub półautonomicznych samochodów będzie dochodzić. Nawet, jeśli całkowicie zdominują one szosy i będą się ze sobą komunikować. Jeżeli nie zawini człowiek, to błąd może popełnić system. Bo i on nie jest nieomylny. Z tym trzeba się pogodzić - nie ma w pełni bezpiecznych rozwiązań, przecież ofiary śmiertelne ma na swoim "koncie" i segment smartfonów. Nie zmienia to faktu, że Tesla pewnie doczeka się słów krytyki, będzie przybywać pytań o okoliczności wypadku i odpowiedzialność producenta. Dobrze, bo niektóre kwestie trzeba wyjaśnić. Ale wskazywanie szybko winnych i stwierdzanie, że lepiej sobie dać spokój z tymi nowinkami, to nie będzie właściwa droga.

Tesla może mieć kłopot

Wspominałem o możliwym błędzie kierowcy, ale nie wykluczam też, że doszło do jakiejś awarii: może kierowca widział ciężarówkę, ale nie mógł zareagować, bo coś się zepsuło? Śledztwo to wykaże. Błędem będzie jednak przekonywanie, że ten wypadek potwierdza, iż autonomiczna jazda nie jest bezpieczna. Po pierwsze, to nie jest jeszcze autonomiczna jazda, a po drugie, Tesla w swym wpisie podkreśla, że wypadek śmiertelny miał miejsce po przejechaniu łącznie 130 mln mil w trybie Autopilot. To znacznie więcej niż w tradycyjnej jeździe, gdzie śmiertelny wypadek trafia się średnio raz na 60 mln mil - ograniczenie czynnika ludzkiego już przynosi efekty.

Oczywistym jest, że do wypadków z udziałem autonomicznych lub półautonomicznych samochodów będzie dochodzić. Nawet, jeśli całkowicie zdominują one szosy i będą się ze sobą komunikować. Jeżeli nie zawini człowiek, to błąd może popełnić system. Bo i on nie jest nieomylny. Z tym trzeba się pogodzić - nie ma w pełni bezpiecznych rozwiązań, przecież ofiary śmiertelne ma na swoim "koncie" i segment smartfonów. Nie zmienia to faktu, że Tesla pewnie doczeka się słów krytyki, będzie przybywać pytań o okoliczności wypadku i odpowiedzialność producenta. Dobrze, bo niektóre kwestie trzeba wyjaśnić. Ale wskazywanie szybko winnych i stwierdzanie, że lepiej sobie dać spokój z tymi nowinkami, to nie będzie właściwa droga.

Hej, jesteśmy na Google News - Obserwuj to, co ważne w techu

Więcej na tematy:

teslaautopilotwypadekhot