40

Autonomiczne samochody będą potrącać przechodniów – inaczej nikt by ich nie kupił

Samoprowadzące się pojazdy to nie pieśń przyszłości - to rzeczywistość. Ludzie jednak podchodzą do nich z niechęcią, po części dlatego, że aby działać poprawnie, muszą one sprowadzić dylematy moralne do postaci kilku linijek kodu.

Autonomiczne samochody nie mają łatwego życia, nie tylko u nas, ale ogólnie na świecie. Ludzie lubią patrzeć, jak Tesle wbijają się w stojącą na drodze przeszkodę bądź jak potrącają pieszego który wtargnął na jezdnię a następnie wyciągają te sytuacje jako argumenty przeciwko tej technologii. Tymczasem w samej tylko Polsce w 2019 r. miało miejsce około 30 tys. wypadków drogowych, w których śmierć poniosło 2900 osób. 8 osób dziennie wychodzi jak gdyby nigdy nic z domu, by nigdy już do niego nie wrócić. Bardzo popularnym wytłumaczeniem zasłyszanym od innych kierowców jest to, że u nas jest tak dużo wypadków (szczególnie śmiertelnych) ponieważ jeździmy starymi gratami, co niby nimi Niemiec tylko do kościoła używał. Smutna statystyka jest jednak taka, że 87 proc. wypadków miało miejsce z winy kierowcy, a tylko niecałe 5 proc. spowodowanych było niesprawnością techniczną pojazdu. Innymi słowy – to kierowcy, wymuszając pierwszeństwo czy pędząc 100 w zabudowanym byli przyczyną przytłaczającej większości wypadków.

Automatyczne samochody są lepsze od ludzi. Chyba…

Zwolennicy nowych technologii chętnie przytaczają argument, że autonomiczne pojazdy, nawet jak mają wypadki, to jest ich znacznie mniej proporcjonalnie do ludzkich kierowców. Bardzo możliwe, że jest to prawda i chętnie bym się podpisał, gdyby tylko było wiadomo, ile tych autonomicznych samochodów… rzeczywiście istnieje. Ich liczenie utrudnia fakt, że istnieje kilka poziomów automatyzacji, większość pojazdów porusza się po drogach w ramach testów, nie ma wstępu do miast i nie wiadomo dokładnie, jakie przebywają one dystanse. Ponadto żaden kraj nie dopuścił jeszcze w pełni autonomicznych pojazdów do ruchu – w każdym takim samochodzie póki co ma siedzieć kierowca, który w razie sytuacji kryzysowej ma przejąć stery i który jest odpowiedzialny za wszystko, co taki pojazd zrobi. Powstaje więc pytanie – skoro autonomiczne pojazdy mają potencjał być bezpieczniejsze niż te prowadzone przez człowieka (szczególnie jeżeli będzie ich więcej i będą wzajemnie komunikować sobie swoją pozycję) to dlaczego rządy nie kwapią się by ułatwić im wejście na rynek?

Bo wypadki się zdarzały, zdarzają i będą zdarzać

Żadna sztuczna inteligencja nie jest idealna, nawet najlepiej dopieszczone oprogramowanie może się wysypać, a najbardziej zaawansowane algorytmy polegną czasem na najprostszych zadaniach. A w przypadku samochodów nie musi nawet wystąpić jakikolwiek błąd, by doszło do kolizji – wystarczy, że zdarzy się sytuacja w której po prostu fizyka nie pozwoli uniknąć wypadku. A im więcej takich sytuacji, tym więcej szans na takie zdarzenie. Problem nie leży tu jednak w bezpieczeństwie, a w tym, że póki co nikt nie ma bladego pojęcia, jak automatyczne samochody rozwiązać od strony prawnej. W przypadku „ludzkich” kierowców sytuacja jest jasna – kto zawinił, ten poniesie karę. Co jednak jeżeli zawinił… nikt? Kogo bowiem uznać winnym śmiertelnego potrącenia przechodnia na pasach? Raczej nie przechodnia – on był ofiarą i miał prawo przejść przez jezdnie. Raczej nie pasażera, który kupił samoprowadzący samochód. Kierowcy natomiast brak, a najbliżej niego znajduje się zespół programistów, którzy stworzyli oprogramowanie pojazdu. Karanie osób które stoją za stworzeniem automatycznego samochodu ma o dziwo teoretyczny sens. Dlaczego?

Ano dlatego, że każda sytuacja kryzysowa, nieważne czy kierowcą jest człowiek czy robot, to tak naprawdę dylemat znany jako Trolley Problem. Kwestii wyjaśnienia – Trolley problem to sytuacja w której na jesteś kierowcą pociągu, który zmierza wprost na grupkę ludzi znajdujących się na torach. Jako maszynista wiesz, że nie wyhamujesz, ale możesz jeszcze przestawić zwrotnice tak, by zjechać na boczny tor, na którym znajduje się tylko jedna osoba. Jest to więc dylemat odnośnie tego, czy jedno życie jest mniej warte niż pięć oraz czy brak reakcji/podjęcia wyboru (nie pociągnięcie za dźwignie zwrotnicy) nie jest decyzją samą w sobie. W przypadku samochodu maszynistą jest kierowca i w sytuacji kryzysowej ma do wyboru – poświęcić swoje życie czy osoby, w którą może uderzyć. I historia zna wiele przypadków bohaterów, którzy poświęcili się zachowując życie kogoś innego. Być może tak boimy się autonomicznych pojazdów, ponieważ w ich przypadku ta szara strefa, którą nazywamy moralnością nie tylko powinna, ale wręcz musi zostać sprowadzona do prostych algorytmów, które pojazd musi wykonać w ułamku sekundy. I tu pojawia się kolejny problem.

Każdy ceni własne życie

Samochody autonomiczne, oprócz tego, że muszą być bezpieczne, muszą być też sprzedane i kupione. A kwestia tego, jak dany pojazd zachowa się w sytuacji podbramkowej przynajmniej dla mnie, jako kupującego, byłaby wręcz kluczowa. Chciałbym wiedzieć, na ile programista wycenił moje życie jako kierowcy. Czy wystarczą dwie osoby, które wtargną mi na pasy, czy też musi to być grupa pięcioosobowa. Czy dzieci mają większą wartość niż ja? A może jest odwrotnie i samochód w każdej sytuacji będzie cenił życie przechodnia bardziej niż moje? Mam wrażenie, że duża część z osób czytających to powiedziała sobie teraz w myślach coś, do czego wstydziłaby się przyznać – że chciałaby by samochód cenił wyżej ich życie niż innych. I nie ma w tym nic złego – większość z nas chce przecież przeżyć. Dlatego moim zdaniem samochody autonomiczne, jeżeli kiedykolwiek zyskają na popularności będą właśnie tak programowane – by starać się za wszelką cenę chronić życie kierowcy. A to znaczy, że będą potrącać innych uczestników ruchu.

Powracamy tu więc do naszego wcześniejszego rozważania – co robić z taką sytuacją? Jeżeli bowiem ukażemy firmy/programistów, to nikt nie będzie chciał takich samochodów robić. Mój pomysł na to to… nie karać nikogo. Chociaż jako kierowca mówię to z ciężkim sercem, jestem zdania, że w przypadku właścicieli autonomicznych pojazdów jedna z szans jakie widzę, by te pojazdy mogły legalnie operować na drogach, jest po prostu dodatkowe ubezpieczenie obowiązkowe, dzięki któremu możliwe będzie pozyskanie środków na wypłacanie ofiarom takich wypadków (bądź ich rodzinom) odszkodowań. I do tego mam od razu dwie uwagi – po pierwsze takie odszkodowanie byłoby wypłacane oczywiście po dokładnym sprawdzeniu czy np. podzespoły/czujniki samochodu nie zostały zmodyfikowane bądź czy nie mamy do czynienia z próbą wyłudzenia odszkodowania. Po drugie – wspomniane odszkodowanie nie  miałoby na celu pokrycia strat/uszczerbku na zdrowiu, ale byłoby zadośćuczynieniem za to, że wspomniany wypadek drogowy był efektem celowego zaprogramowania samochodu w taki a nie inny sposób.

Osobiście nie mam problemu z faktem, że autonomiczne samochody byłyby zaprojektowane tak, by najbardziej chronić życie kierowcy. Ba, jestem zdania, że nawet tak zaprogramowane generowałyby nie tylko znacznie mniej wypadków, ale też i obniżyłby odsetek tych śmiertelnych, ponieważ przed uruchomieniem „protokołu ochrony” sprawdziłyby wszystkie inne dostępne metody zminimalizowania skutków kolizji.

Źródło danych: Policja