64

Komputer w samochodzie zdecyduje kogo zabić. Dylematy etyczne AI

Autonomiczny samochód jest coraz bliżej pojawienia się na drogach. Nie można mieć jednak wątpliwości, że na początku będzie to technologia zawodna, wokół której powstanie wiele kontrowersji, głównie natury etycznej. Czy te kontrowersje nie zabiją czegoś co mogło być przyszłością motoryzacji? Być może nie wszyscy się jeszcze zorientowali, ale jestem wielkim entuzjastą autonomicznych samochodów. Uważam, że […]

Autonomiczny samochód jest coraz bliżej pojawienia się na drogach. Nie można mieć jednak wątpliwości, że na początku będzie to technologia zawodna, wokół której powstanie wiele kontrowersji, głównie natury etycznej. Czy te kontrowersje nie zabiją czegoś co mogło być przyszłością motoryzacji?

Być może nie wszyscy się jeszcze zorientowali, ale jestem wielkim entuzjastą autonomicznych samochodów. Uważam, że to naturalny kierunek ewolucji motoryzacji. Oczywiście na obecnym etapie nie jest to technologia pozbawiona wad, ale wszystko wskazuje na to, że w ciągu kilku najbliższych lat ujrzymy samochody, które kierowane będą przez zaawansowane programy komputerowe. Wyścig po pierwszy autonomiczny ma wielu uczestników i choć chciałoby się powiedzieć, że to Google jest najbliżej bycia, to tak naprawdę niewykluczone, że mogą go wyprzedzić Volvo, Mercedes czy jakiś inny producent samochodów.

Nie mam również wątpliwości, że w początkowych fazach nawet najbardziej dopracowane systemy mogą być zawodne. Wiele kontrowersji pojawi się po pierwszych stłuczkach spowodowanych przez komputerowych kierowców, a gdy dojdzie do śmiertelnych wypadków, dopiero wtedy podniesione zostanie larum i kwestionowane będzie wprowadzenie tej technologii. Jednak problem, który zamierzam poruszyć, wykracza daleko poza sferę czystej technologi, a wkracza na pole etyki sztucznej inteligencji. Etyki, która będzie nieodłącznym elementem AI, gdy ta zacznie przejmować coraz więcej ról ludzkich, a w konsekwencji stanie przed wyborami moralnymi.

Do rozmyślań nad dylematami, z którymi będą musiały uporać się roboty w przyszłości zainspirował mnie wpis Erica Limera w serwisie Gizmodo. Problem przedstawiony przez niego wygląda następująco:

„Wybucha przednia opona w twoim autonomicznym SUV-ie, na skutek czego ten skręca. Zamiast jednak skręcić w lewo i wjechać na przeciwny pas ruchu, samochód decyduje skręcić w prawo. Załączają się hamulce, system stara się wyprowadzić samochód z poślizgu, jednak pęd jest zbyt duży. W efekcie czego, samochód spada w przepaść, wykonując akrobacje niczym w złym filmie akcji. Twój autonomiczny samochód, za którego zapłaciłeś spore pieniądze, w ramach mniejszego zła postanowił cię zabić”.

I tak jak zawraca uwagę E. Limer, nie do końca był to program, a raczej programista w fabryce, a nawet bardziej prawdopodobne, że byli to jego przełożeni, lub nawet zespoły odpowiedzialne za rozstrzyganie tego typu problemów. Ważne jest to, że ktoś tam na górze symulując taką sytuację postanowił Cię uśmiercić, co nie wykluczone, że i tak by nastąpiło w efekcie usterki, ale to inne kwestia.

Problem podejmowany tutaj jest znacznie starszy niż autonomiczne samochody i po angielsku nosi nazwę „Trolley problem”. W skrócie chodzi o hipotezę, którą można opisać w ten sposób. Prowadzisz pociąg. Na trasie pociągu zauważasz 5 osób, które niechybnie zostaną przejechane. Możesz pociągnąć za dźwignię, która skieruje pociąg na inny tor, jednak tam też ktoś stoi, kto niechybnie zginie. Twój wybór sprowadza się do nierobienia niczego i zabicia 5 osób, albo zdecydowania o śmierci jednej osoby na skutek własnych działań. Który wybór jest właściwym?

W tym momencie wchodzimy na bardzo cienki lód, bowiem etycy sami spierają się o odpowiedź na to pytanie przez niemal 50 lat. Ten hipotetyczny problem możemy odnieść do zachowania sztucznej inteligencji kierującej naszym pojazdem. Pojawia się problem jakimi kryteriami ma kierować się taki program sterujący naszym pojazdem. Co w wypadku, gdy przyjdzie mu do wyboru uderzyć w samochód z kierowcą i małym dzieckiem na tylnym siedzeniu, a samochodem z dwójką staruszków? Czy wewnątrz spółek motoryzacyjnych powstaną działy przyznające punkty poszczególny sytuacjami, a jeśli tak to na jakie podstawie? Przydatności społecznej, wysokości odprowadzanych podatków, kolorów skóry? Czy chcemy czy nie pojawi się jakiś sposób segregacji na ludzi na lepszych i gorszych. Dopóki dochodzi do wypadków z udziałem ludzi większość z nas powie “Wypadki się zdarzają”. Co więcej, gdy zawini człowiek mamy możliwość osądzenia go i ewentualnego zadośćuczynienia za jego postępowanie. Komputera za kratki nie wsadzimy.

Niewątpliwie jest to problem, z którym w najbliższych latach będziemy musie się zmierzyć. Im dłużej się nad tym zastanawiamy, tym bardziej prawdopodobne wydaje mi się, że kłopoty natury etycznej mogą zahamować rozwój autonomicznych samochodów, ze względu na kontrowersje im towarzyszące. Ja już oczami wyobraźni widzę nagłówki gazet, krzyczące “Mordercze pojazdy na naszych drogach” “Komputer zabił rodzinę z trójką dzieci. W artykule 30 zdjęć z dokładnymi przybliżeniami”

Grafika: [1]