58

Autopilot Tesli zabił kierowcę? Wstrzymałbym się z takimi komentarzami

Stało się: jest ofiara śmiertelna eksperymentów z autonomiczną jazdą. Ten dzień musiał nadejść, któryś z producentów musiał się zmierzyć z tym problemem. Kilka kwartałów temu pisałem o wypadku autonomicznego pojazdu Google, wówczas obyło się bez ofiar - tym razem kierowca miał mniej szczęścia. Samochód biorący udział w wypadku to Tesla model S, kierowca używał trybu Autopilot, który ostatnio robi furorę w social media. Na firmę spadnie fala krytyki? Możliwe, ale nie jestem pewien, czy jest ją za co obwiniać.

Autopilot Tesli nie jest rozwiązaniem, które można dzisiaj nazwać autonomicznym. I trzeba to podkreślić już na wstępie. Producent wspomina o wersji beta, testach, eksperymencie, rozwijaniu systemu, uczula kierowców, by mieli to na uwadze: podczas jazdy w tym trybie muszą trzymać ręce na kierownicy, kontrolować jazdę. Bo Autopilot to asystent jazdy, a nie mechaniczny szofer. Tymczasem ludzie zdają się być głusi na te apele i ostrzeżenia – niedawno Sieć obiegły zdjęcia kierowcy, który spał w swojej Tesli podczas jazdy, inni właściciele tych aut chwalą się tym, co robią podczas jazdy. Ot, ciekawa nowinka, fajna zabawa, patrzcie, co potrafi moje auto. O problemie pisał już Jakub.

Nie zauważył Autopilot, zauważyłby kierowca?

Do śmiertelnego wypadku doszło na początku maja na Floydzie. Teraz sprawą zajmą się urzędnicy z National Highway Traffic Safety Administration, którzy mają zbadać zdarzenie pod kątem roli Autopilota, odpowiedzialności maszyny za wypadek. Jakie były okoliczności? Na oficjalnym blogu Tesli czytamy o naczepie ciężarówki, w którą wbił się samochód. Dużo miejsca między szosą a jej spodem sprawiło, że samochód mocno wjechał pod duży pojazd, zerwany został dach. Raczej nie do przeżycia. Pojawia się jednak pytanie o to, dlaczego Model S nie zatrzymał się lub przynajmniej nie zwolnił przed zderzeniem? Najprawdopodobniej Autopilot nie rozpoznał białej ciężarówki na tle jasnego nieba.

Pomylił się system, ale pomylił się też człowiek. Bo można przyjąć, że i on nie zauważył przed sobą dużego pojazdu. Jest też inne wytłumaczenie: kierowca nie kontrolował samochodu podczas jazdy, oddał mu pełną kontrolę nad tym procesem. Może spał, może rozmawiał przez telefon albo czytał – nie wiemy. To jednak powinien być sygnał dla pozostałych kierowców: nie popełniajcie błędów tego typu, nie nagrywajcie filmików, na ktorych robicie wszystko, prócz trzymania rąk na kierownicy. To jest asystent. Tylko i aż. Przy okazji filmików, można dodać, że ofiara wypadku w kwietniu umieściła w serwisie YT materiał, na którym uwieczniono niebezpieczny manewr na autostradzie – wtedy Tesla zareagowała poprawnie, kto wie, jak zachowywałby się kierowca? Co ciekawe, Elon Musk udostępniał wówczas ten film na Twitterze:

Tesla może mieć kłopot

Wspominałem o możliwym błędzie kierowcy, ale nie wykluczam też, że doszło do jakiejś awarii: może kierowca widział ciężarówkę, ale nie mógł zareagować, bo coś się zepsuło? Śledztwo to wykaże. Błędem będzie jednak przekonywanie, że ten wypadek potwierdza, iż autonomiczna jazda nie jest bezpieczna. Po pierwsze, to nie jest jeszcze autonomiczna jazda, a po drugie, Tesla w swym wpisie podkreśla, że wypadek śmiertelny miał miejsce po przejechaniu łącznie 130 mln mil w trybie Autopilot. To znacznie więcej niż w tradycyjnej jeździe, gdzie śmiertelny wypadek trafia się średnio raz na 60 mln mil – ograniczenie czynnika ludzkiego już przynosi efekty.

Oczywistym jest, że do wypadków z udziałem autonomicznych lub półautonomicznych samochodów będzie dochodzić. Nawet, jeśli całkowicie zdominują one szosy i będą się ze sobą komunikować. Jeżeli nie zawini człowiek, to błąd może popełnić system. Bo i on nie jest nieomylny. Z tym trzeba się pogodzić – nie ma w pełni bezpiecznych rozwiązań, przecież ofiary śmiertelne ma na swoim „koncie” i segment smartfonów. Nie zmienia to faktu, że Tesla pewnie doczeka się słów krytyki, będzie przybywać pytań o okoliczności wypadku i odpowiedzialność producenta. Dobrze, bo niektóre kwestie trzeba wyjaśnić. Ale wskazywanie szybko winnych i stwierdzanie, że lepiej sobie dać spokój z tymi nowinkami, to nie będzie właściwa droga.

  • Elmot

    Zastanawiam się jak zmieniają się nawyki kierowcy po dłuższym okresie użytkowania takiego pojazdu. Na początku pewnie wszyscy trzymają łapsie na kierownicy, nogę nad pedałem hamulca itp. Potem być może nasza czujność zostaje uśpiona i zaczynamy coraz bardziej się rozleniwiać i ufać pojazdowi. Ciekaw jestem czy ktoś robił badania np. czasu reakcji użytkownikom takich wpół autonomicznych pojazdów.

    • qwerty

      Dokładnie tak jest.
      Trochę podobnie jak z kierowcami samochodów ze skrzyniami automatycznymi. Znajomy od 3 lat ma samochód z automatem. Zawsze był i jest bardzo dobrym kierowcą. Wcześniej miał ze skrzynią manualną. Teraz prawie nie umie takim jeździć, a na pewno nie jeździ mu się manualem ani dobrze, ani intuicyjnie.

    • Kamil

      Technika idzie do przodu. Ja mam za to wrażenie, że dzięki skrzyniom automatycznym ruszanie spod świateł idzie ludziom płynniej. Samochód nie gaśnie, nie słychać też żeby ktoś próbował ruszyć na wciśniętym prawie na maksa sprzęgle, nie ma też gwałtownych „skoków” do przodu. Sam się przyzwyczaiłem do automatu i uważam, że jest to po prostu bardziej wygodne, zwłaszcza w korku. Inna sprawa, że w Polsce za taką skrzynię często trzeba dopłacać kosmiczne pieniądze.

    • qwerty

      Zgadza się. Ja nie neguję skrzyń automatycznych ani techniki. Tylko piszę, o zmianie podejścia / przyzwyczajenia człowieka do czegoś nowego w porównaniu do wcześniejszego, co z kolei było normalne i intuicyjne.
      Skoro autopilot w Tesli to beta to gdybym miał ten samochód to dla własnego bezpieczeństwa wolałbym go w ogóle nie używać.
      Tak zrobiłem np. z nawigacją Here. Póki była betą to miałem ją jako „ciekawostkę”, a jeździłem z Automapą. Kaliber ryzyka nie ten co autopilot, ale sam po sobie wiem jak łatwo się przyzwyczaić do czegoś wygodnego i jak to wpływa na zachowanie człowieka.
      Przyzwyczajenia się zmieniają, a powrót do poprzedniego nie jest oczywisty. Im dłużej czegoś używasz tym bardziej uznajesz to za standard. Mimo, że to beta. Tak działa mózg człowieka, zdrowy rozsądek przestaje działać.

    • Elmot

      Mniej więcej :) Warto rzucić okiem na filmiki nieszczęśnika. Na początku była pełna asekuracja kierownicy i pedałów, z czasem niestety coraz więcej luzu :(

  • NobbyNobbs

    Ciężarówkę trudno przeoczyć, również białą więc stawiam na to drugie. Zginął przez zbytnie zaufanie technologii i tyle. Ale to też pokazuje, że długa droga przed nami aby można było mówić o autonomicznych samochodach.

    • yadue

      Z tego co czytałem, to „kierowca” w momencie wypadku ogłądał Harrego Pottera, jest to któryś z kolei wypadek podobnego typu, gdzie tesla wjeżdża w wysoką ciężarówkę. W Polsce samochody ciężarowe posiadają zderzak tylni, który może zapobiec kolejnym podobnym wypadkom, a nie wiadomo jak to wygląda na terenie stanów.

    • Szczepan

      Tylni. Ta ciężarówka zawinęła rogala przed nim, skręcając. Tu żaden zderzak nie pomoże.

    • garrappachc

      Tutaj o tym nie wspominieli, ale ciężarówka była koloru niebieskiego, co na tyle nieba mogło zmylić czujniki Tesli. A kierowca podobno oglądał Harrego Pottera.

    • NobbyNobbs

      Czyli nie bunt maszyn a nagrody darwina.

    • adam m

      To nawet jednego radaru nie ma ani lasera? Google car maja chyba kilka tego typu. Tak wiem ze to nie autonom ale na samyc kamerach jeżdżą?

    • Tak, to jest jedynie bardziej rozbudowany asystent pasa ruchu połączony z aktywnym tempomatem, kamery do tego wystarczą…

    • adam m

      Czyli ciężko nazwać to autopilotem

    • A autopilota w samolocie już łatwo?

    • F od X

      Tak, długa droga. Szczególnie, że Tesla to samochód półtautonomiczny wymagający uwagi kierowcy.

    • Zbyszek

      Nie zapominajmy, że oprogramowanie takiego samochodu tworzy człowiek. Więc zawsze będzie jakiś błąd, czy sytuacja, której wcześniej nie przewidziano. Poza tym powstaje pytanie. Ile będzie wypadków, gdy pojazdy z autopilotem będą miały większy udział w codziennym ruchu. Każdy, kto dużo jeździ, doskonale wie, że na drodze może zdarzyć się dosłownie wszystko. Praktycznie, nawet na tej samej trasie, każdy przejazd jest inny. Bardzo, bardzo długa droga przed autonomicznymi pojazdami i niestety jeszcze wiele osób zginie …

    • NobbyNobbs

      Zabrzmi to okrutnie, ale mam nadzieję, że będą to kierowcy a nie osoby postronne.

  • nexpert

    po co zatem autopilot jesli mam trzymac rece na kierownicy i go pilnowac? Zawsze bylem przeciwnikiem autonoicznych pojazdow bo jak mozna zaufac maszynie? To tak jak ufac nawigacji, czlowiek jest omylny ale mysli,widzi i reaguje czasem zupelnie nieszablonowo a nawet nieswiadomie ale bywa,ze take reakcje ratuja zycie.

    • Ale producenci zmierzają do tego, by maszyna też nauczyła się „myśleć”.

    • SRP 11

      po co zatem autopilot jesli mam trzymac rece na kierownicy i go pilnowac?

      Sądzę że po to, by na obserwacje drogi przed samochodem nie poświęcać 99% czasu a np. 70% i trzymając dłonie na kierownicy móc błyskawicznie zareagować na zagrożenie

    • Kamil

      Dokładnie. Podobnie jest zresztą ze zwykłym tempomatem na autostradzie. Jak droga jest pusta, można nogi oderwać od pedałów i pozwolić im odpocząć. Jak jest ruch i przewidujemy, że trzeba będzie nagle przyspieszyć / zwolnić, trzymamy nogi w pogotowiu.

    • qwerty

      Takie trzymanie w pogotowiu jest bardziej męczące niż kierowanie na 100%. Dużo szybciej spowodujesz wypadek kierując na 70% niż na 100.

    • Kamil

      Korwin kiedyś wymyślił, że aby było bezpiecznie na drogach, każdy kierowca powinien mieć przed twarzą metalowy pręt. Jak uderzy w coś – pręt przebija mu głowę. Każdy byłby skupiony na 200%. Może tak należy zrobić?

  • mirosław borubar

    Skoro to beta to po co udostępniają to kierowcom? Tesla jest winna i koniec. Dobrze, że trafiło na nich, Muskowi z jego plecami nic nie grozi, a gdyby to trafiło na jakiegoś producenta ze Starego Kontynentu to pewnie by go Amerykanie zniszczyli (tak jak starali się zniszczyć, a przynajmniej jak najbardziej osłabić VW, wcześniej drukując pieniądze dla własnych koncernów motoryzacyjnych umarzając im długi).

    • Po co udostępniają? Bo to pomaga rozwijać projekt: każdy przejechany kilometr dostarcza danych. Może to zabrzmi brutalnie, ale ten śmiertelny wypadek też dostarczy danych…

    • kofeina

      Bo to beta testy – udostępnianie ludziom ;)

    • Kamil RO Dzióbek

      >Skoro to beta to po co udostępniają to kierowcom?
      Z oszczędności. Przerzuca się koszty testów z firmy na użytkowników. Tak samo robi się z grami i systemami (wypuszcza zabugowane i czka aż użytkownicy znajda błędy).
      Gdyby Tesla chciał to przetestować bez ofiar (łącznie z przechodniami) to by musiał zbudować atrapy miast, autostrad i innych rzeczy itd. Duże koszty. Podliczyli pewnie, że za odszkodowania zapłacą mniej niż za samodzielne testowanie. Po drugie firmy IT są mistrzami w unikaniu odpowiedzialności i prawa (lobbuja za tym nawet u Obamy jak w kongresie nie wystarczy). Już nie odpowiadają za rozpowszechnianie piratów z ich serwerów. W licencjach jest napisane że nie odpowiadają za żadne szkody (trzeba kliknąć ok inaczej nie zadziała program).

  • maciej

    tesla wjechała pod naczepę stojąca w poprzeg drogi. naczepa była długa i wysoko osadzona, tak ze ucięło tylko dach samochodu. dla czujników odległości przed autem była pusta przestrzeń na wysokości zderzaków.

    w takiej konfiguracji trudno pisać o zawodności autopilota.

    • kofeina

      Można, bo nie „zauważył” przeszkody

    • SRP 11

      Po pierwsze Tesla jechała za ciągnikiem z naczepą, który zaczął skręcać w lewo w prostopadłą drogę.
      Po drugie raczej żaden z projektantów nie wpadł na durny pomysł, by mierzyć odległość jedynie od obiektów niższych niż np. 1 m.

      PS. Nie widzę komentarzy: Jego Mać, NobbyNobbs, tiger

    • Krzysztof Szmergiel

      Lidar widzialby ale tesla uzywa tylko kamer i czujnikow zbizeniowych. Przynajmniej tak twierdzi musk.

    • SRP 11

      Ultradźwiękowe czujniki zbliżeniowe mają skuteczny zasięg kilkaset metrów.
      Układ pomiaru odległości w oparciu o obraz z dwu kamer jeszcze większy.
      Pasywny układ optyczny mierzący odległość w oparciu o detekcję fazy to zazwyczaj kilkadziesiąt metrów skutecznego pomiaru.

      System interpretuje sygnały od układu optycznego i dźwiękowego. Gdy układ optyczny nie „widzi” przeszkody na drodze to sygnały od czujników zbliżeniowych mogą być mylnie interpretowane, np jako odbicia od przeszkód na poboczu

    • Krzysztof Szmergiel

      Teoretycznie tak. Chociaz lidar widzi tam gdzie ludzkie oko (kamera) nie widzi. Czujniki umieszczone nisko nad ziemia mogly nie „zobaczyc” przeszkody a kamera biala ciezarowke nie odroznila od tla. Oczywiscie to tylko moje przypuszczenia, ale jest powod dla ktorego wszyscy inni uzywaja lidarow w swoich autonomicznych samochodach.

    • SRP 11

      Tesla S ma wbudowany radar o zasięgu 200 m

    • Krzysztof Szmergiel

      Owszem, ale jak wiadomo radar nie bedzie skuteczny we wszystkich warunkach, ma problemy z rozpoznawaniem nieruchomych obiektow. Lidar jest znacznie skuteczniejszy lecz Tesla go nie uzywa. Podejrzewam, ze w tym przypadku naszlo na siebie wiele czynnikow ktore spowodowaly ze system nie zadzialal prawidlowo. Albo facet byl kompletnie pijany i wjechal w tyl zwalniajacej ciezarowki a autopilot ma nic do tego.

    • Krzysztof Szmergiel

      Zerknij na ten wpis na blogu Tesli: https://www.teslamotors.com/blog/tragic-loss. Oficjalnie czlowiek jechal wiec na autopilocie. Pusta przestrzen pod naczepa oglupila czujniki a kamera nie wykryla naczepy. Dokladnie jak podejrzewalem. Zbieg okolicznosci. Lidar w tym przypadku wykrylby przeszkode.

    • SRP 11

      Ale przecież w tym wpisie nie ma mowy, że „pusta przestrzen pod naczepa oglupila czujniki a kamera nie wykryla naczepy.” Jest tylko napisane, że kamera i kierowca nie dostrzegli naczepy z powodu jasnego nieba. Ani słowa o pustej przestrzeni jako przyczyny niezareagowania autopilota

    • Krzysztof Szmergiel

      Neither Autopilot nor the driver noticed the white side of the tractor trailer against a brightly lit sky, so the brake was not applied. The high ride height of the trailer combined with its positioning across the road and the extremely rare circumstances of the impact caused the Model S to pass under the trailer…

    • SRP 11

      Dwa niezależne zdania.

      Pierwsze mówi o przyczynach niezadziałania autopilota.
      Drugie mówi, o przyczynach przejechania samochodu pod przyczepą.

      Kolejne tłumaczy, że gdyby uderzenie nastąpiło w przód lub tył to zaawansowane systemy bezpieczeństwa zapobiegłyby poważnym obrażeniom

    • Nazwa

      1. Źle zrozumiałeś co przeczytałeś. Patrz policyjny rysunek.

    • SRP 11

      Przeczytałem dobrze, ktoś źle napisał:
      „Kierowca ciągnika, który skręcał w lewo, tłumaczy, że Tesla, jadąca za nim, nie dała mu szansy na reakcję.”http://next.gazeta.pl/next/7,151243,20334630,pierwszy-smiertelny-wypadek-samochodu-tesla-z-autopilotem-niewyobrazalna.html
      A ja nie zweryfikowałem w innym źródle

    • NobbyNobbs

      Bo już cię wyśmiałem z porównywania autopilota z samolotu do tego w samochodzie na innym portalu, a tu tej bredni nie powtarzasz.

  • Krzysztof Szmergiel

    Musk stwierdzil w jakims wywiadzie, ze lidary nie sa konieczne i tesla opiera sie wylacznie na kamerach i czujnikach zblizeniowych. To moze byc efekt tego, ze kamera nie widzi wszystkiego.

  • Daniel

    No i znów przez nieuwagę kierowcy ma oberwać firma? Co jest z ludźmi? Teraz to aż tacy głupi są? Dla lajków i wyświetleń specjalnie są głusi na uwagi od Tesli? Tesla podkreśla i mówi, że to testy, mogą być problemy. Że to nie jest „dokończona” wersja autopilota a jak na razie ma pomagać kierowcy w jeździe by mógł na jakiś czas odpocząć ale by miał kontrolę nad tym co się dzieje a nie iść w kimę czy oglądać film. Znów będzie jak z babką co oskarżyła GPS o wprowadzenie jej do wody, pomimo, że nie uważała na sygnały o skręceniu.

  • doogopis

    To już nie pierwsza ofiara autonomicznych aut.
    Dwa lata temu autonomiczne auto nie chciało doprowadzić do zderzenia z innym pojazdem tej samej marki. Omijając samochód, wjechało w grupę wracających ze szkoły uczniów podstawówki. Po trwającym dwa lata procesie, szef firmy postanowił wziąć winę na siebie. – W 2015 roku zapowiedziałem, że w razie wypadku, to my będziemy za wszystko odpowiedzialni. Uważam, że to najlepsza decyzja, muszę poddać się karze, tak jak obiecałem. Mimo nieszczęśliwego zbiegu okoliczności, udowodniliśmy, że nasi kierowcy są zawsze bezpieczni – stwierdził prezes w komunikacie do mediów.

    Oczywiście szef chciał wykręcić sie że to auto zabiło te dzieciaki bogu winne!
    Po naciskach rodziców,presji społeczeństwa,bo tak to miał to gdzieś!
    Ciekawe ilu jeszcze zabije ten ich postęp?

    • dddddddddddddddddddddasd

      Tak jak by ludzie za kierownica nie zabijali a prawda jest taka że zabijają i póki co statystycznie 2 x więcej w stosunku do przejechanych kilometrów i myśle że dysproporcja będzie się jeszcze powiekszać.

    • Proszę źródło tej informacji.

    • doogopis

      A tu na przykład!
      http://mobile.gadzetomania.pl/57985,swiat-w-2020-roku
      Wypadek był już opisywany na kilku stronach,a szef dopiero po ostrych naciskach wzioł odpowiedzialność!Tak to miał gdzieś.Tylko nie piszą o tym wszędzie!

    • Aha.

    • Adam

      Co za bzdury piszesz, dwa lata temu jak i praktycznie dzisiaj, nie było samochodów, które w kwestii zmiany kursu jazdy robią coś więcej niż utrzymywanie pasa ruchu. A ty tu o jakimś omijaniu innego samochodu tej samej marki piszesz!

    • doogopis

      Miał miejsce taki wypadek i tyle.W 2015 roku.A jeszcze nawet pamiętam jak o tym czytałem.

  • Mateusz Cichocki

    Jaki autopilot? Co najwyżej funkcja półautopilota – kierowca może aktywować funkcję, która wspomaga
    jazdę np. przy wyjeżdżaniu z garażu, na parkingu, czy omijaniu przeszkód.

    • Poczytaj o tej funkcji w Tesli S, to jest sporo bardziej zaawansowane.

  • anemusek

    Widzę, że fanbojstwo kwitnie. W wypadku Tesli autor postuluje wstrzymywanie się z wnioskami, a w wypadku zwykłych kierowców całkowicie bezmyślnie jedzie po nich komentarzami zresztą dość prymitywnymi i udowadniającą całkowity brak ogarniania tematu..
    Po pierwsze to nie pierwsza ofiara testów trybów autonomicznych tylko pierwsza, której nie udało się ukryć. Po drugie na jakiej podstawie autor przelicza ilość wypadków na liczbę przejechanych mil? Autor chyba w życiu nie opracowywał danych pomiarowych ani nie miał szczątkowego kontaktu z statystyką. Kierców w USA jest setki milionów i przejeżdżają olbrzymie dystanse przez dziesięciolecia, a samochodów autonomicznych jeszcze bardzo niewiele i w stosunku do kierowców przejeżdżają marginalnie mało kilometrów od bardzo niedawna. To jakby oszacowywać prawdopodobieństwo wypadnięcia orła czy reszki na podstawie jednego rzutu… To po prostu czysto marketingowy bełkot dla skrajnych imbecyli i autor owszem powinien unikać łykania takich pierdoł by się zwyczajnie nie kompromitować.
    Dalszej paplaniny chyba już nie warto komentować bo autor po prostu ma znikome pojęcie o temacie.

    • Kamil

      „Po drugie na jakiej podstawie autor przelicza ilość wypadków na liczbę przejechanych mil?”

      Pewnie na podstawie danych podanych przez samą Teslę:
      „This is the first known fatality in just over 130 million miles where Autopilot was activated. Among all vehicles in the US, there is a fatality every 94 million miles. Worldwide, there is a fatality approximately every 60 million miles”
      https://www.teslamotors.com/en_EU/blog/tragic-loss

    • anemusek

      Tak ale 99% to poza normalnym ruchem ulicznym bo o ile mi wiadomo to tesla jak i reszta ma specjalny izolowany kompleks do testowania tego typu rozwiązań i od stosunkowo niedawna mizerne zezwolenie na ograniczone testy drogowe więc dalej pytam o to samo.

  • eddf

    Głupie hipstery teraz będą bronić tego pseudo-samochodu

  • Athlon007

    Czyli jeżeli zadźgam kogoś nożem, to producent noża ma przerąbane? No bo nie powiedzieli, że nóż może kogoś zabić.