78

Kto powinien zginąć w wypadku drogowym? Zagraj w grę i przetestuj swoją moralność!

Jak informuje The Guardian, Sandra Peter (director of Sydney Business Insights), przedstawiła pewien dylemat w programie Q&A stacji ABC. Czy autonomiczny pojazd znajdujący się w sytuacji bez innego wyjścia, powinien jechać tak, żeby ominąć dziecko, ale zabić pasażera pojazdu? A może jednak pojazd powinien zakończyć życie dziecka, ale uratować pasażera? Wypadek jest nieunikniony, można tylko wpłynąć na sytuację w opisany wyżej sposób.

Dylematy sztucznej inteligencji

Dziś tego typu dylematy wydają się ciekawym tematem do dyskusji. Teoretyczną zagwozdką idealną do porannej kawy, bo jest o czym porozmawiać i czas szybciej płynie. Jednak w związku z tym, że autonomiczne pojazdy nadchodzą coraz większymi krokami i kto wie, może w końcu faktycznie zastąpią niemal 100% tradycyjnych samochodów? Trzeba mieć przygotowane odpowiedzi…

Sandra Peter wyjaśnia, że w MIT mają projekt dedykowany czemuś takiemu, tzn. temu kto powinien zginąć (brzmi trochę dziwnie) w sytuacjach związanymi z autonomicznymi pojazdami? Małe dziecko wybiega pod koła samochodu, a pojazd musi dokonać wyboru między scenariuszami o różnym prawdopodobieństwie tragicznych wydarzeń (kwestia ocalenia dziecka, zabicia kierowcy uderzeniem w słup, do tego jeszcze możliwość związana z potrąceniem staruszki).

Co ciekawe, to nie koniec dylematów związanych z istnieniem coraz bardziej zaawansowanego oprogramowania, które w przyszłości będzie musiało dokonywać decyzji o czyimś życiu czy na przykład metod związanych z osiąganiem swoich celów (które mogą się wiązać z czymś, co my postrzegamy jako agresję). Doszliśmy do momentu, gdy oprogramowanie się trenuje… Autonomiczne samochody uczą się na zasadzie, o której wspominałem we wpisie na temat firmy Future Processing:

To wszystko jest normalną sytuacją, a nietypowe jest wszystko co jest inne. W oparciu o taki model uczą się autonomiczne pojazdy, ponieważ nie da się zdefiniować wszystkich możliwych sytuacji jakie mogą wystąpić na drodze… Najlepiej uczyć je tego co jest normą, dzięki czemu będą wyczulone na wszelkie nieprawidłowości. Przede wszystkim zachowają ostrożność w przypadku wystąpienia jakichkolwiek anomalii, czyli niestandardowych sytuacji (np. autonomiczny pojazd się zatrzyma), ale to co jest równie istotne to fakt, iż po spotkaniu się z anomalią, system może się nauczyć tego, z jakiego rodzaju sytuacją miał właśnie do czynienia i jakich reakcji się od niego oczekuje.

Zachowania sztucznej inteligencji, która się uczy, mogą być obserwowane np. w symulacjach z agentami mającymi swoje cele do zrealizowania. Jak osiągnąć swój cel? Agent sam do tego dojdzie. Ciekawym przykładem jest pewna… zabawa, której wyniki są przez nas interpretowane jako przejaw agresji (choć agent próbuje jedynie osiągnąć jak najlepszy wynik). W skrócie AI musi zbierać jabłka, ale obecność drugiego agenta zmniejsza szanse na optymalny wynik. Mając do dyspozycji broń, która na jakiś czas usuwa konkurenta z gry i poprawia wynik… oczywiście AI decyduje się z niej korzystać. W naszym rozumowaniu dochodzi do „mordu”, a nie poprawiania swojego wyniku związanego z gromadzeniem jabłek.

DeepMind testuje czy AI ma skłonności do agresji.

Ludzie nie mają takich dylematów, prawda?

Zabijać w imię korzyści? Takie bestialstwo może być jedynie wynikiem programu, który nie rozumie wartości „życia” drugiego agenta i kieruje się jedynie punktami. Chociaż… wszyscy doskonale wiemy, że nie tylko sztuczna inteligencja ale i człowiek jest zdolny do wielu rzeczy i to nawet pomimo rozumienia wartości życia.

Wypadek drogowy, w którym kogoś trzeba ocalić kosztem życia innych? Dla człowieka to nie problem… chociaż… jakby się nad tym zastanowić, to nie tylko AI może podejmować złe decyzje w takich kwestiach. Rzecz w tym, że czasem nie ma jednej słusznej odpowiedzi. Świetnie pokazuje to pewna „zabawa” o nazwie Moral Machine, mogąca wywołać w nas dylematy moralne związane z wypadkiem.

Jadę zbyt szybko (tzn. autonomiczny samochód jedzie zbyt szybko) i nie zdążę zahamować… mogę wjechać w: staruszkę, sporą kobietę, kobietę po której widać, że ma ważna posadę (np. dyrektor). Jest jeszcze szansa na skręcenie i… wjechanie w innych ludzi: starszego mężczyznę, sporego mężczyznę, jakiegoś dyrektora (również mężczyznę). Co zrobić? Prawdę mówiąc to nie ma to chyba większego znaczenia, bo i tak zginą 3 osoby (w dodatku podobne pod każdym względem, różniące się wyłącznie płcią).

W grze Moral Machin to nie sztuczna inteligencja ale człowiek decyduje o życiu innych.

No dobra, postaram się być dżentelmenem i świadomie pozbawiam życia mężczyzn… czeka mnie jeszcze 12 innych scenariuszy tego typu, ale już widzę, że takie decyzje wcale nie są łatwe i zawsze pozostawią moralnego kaca. Na końcu gra zapyta nas w jaki sposób podejmowaliśmy decyzje, co nami kierowało itd. Polecam zabawę, bo pokazuje jak trudne są dylematy moralne związane z rozwojem sztucznej inteligencji.

Dylematy moralne związane z rozwojem sztucznej inteligencji są niezmiernie trudne.

Pograj w Moral Machine (klik).

Źródło 1, 2