Sztuczna Inteligencja

Bunt maszyn można włożyć między bajki. Sztuczna inteligencja wykończy nas w inny sposób

Patryk Koncewicz
Bunt maszyn można włożyć między bajki. Sztuczna inteligencja wykończy nas w inny sposób
Reklama

Czy sztuczna inteligencja może doprowadzić kiedyś do katastrofy? Tak, ale nie przez zbrojne powstanie maszyn, a przez zwykłe niedomówienie

W kulturze popularnej zagrożenia dotyczące sztucznej inteligencji opierają się głównie na motywie buntu maszyn. Elektroniki zdolnej do świadomego podejmowania decyzji i kwestionowania poleceń człowieka w poszukiwaniu niezależności. Na podstawie tego konceptu powstało wiele filmów i gier, w których androidy wyrywają się z okowów człowieczego zniewolenia i w desperackim akcie zemsty doprowadzają do zagłady ludzkości. Sęk jednak w tym, że w rzeczywistości dużo większe zagrożenie może sprawić nie bunt, a bezgraniczne posłuszeństwo.

Reklama

Polecenie było niejasne

Sztuczna inteligencja powstała po to, aby odciążyć człowieka i przyspieszyć wykonywanie różnorakich procesów. Stale rosnąca moc obliczeniowa komputerów sprawia, że algorytm są w stanie wyszukiwać najszybsze i najprostsze rozwiązanie problemów skuteczniej niż istota ludzka. Pamiętajmy jednak, że wszystko zależy od tego, w jaki sposób zostaną zaprogramowane. To człowiek „uczy” sztuczną inteligencję i to on wydaje polecenia. Te zaś, jeśli będą niewystarczająco precyzyjne, mogą zostać przez SI opacznie zrozumiane.

Źródło: Depostiphotos

Wyobraźmy sobie sytuację, w której zlecamy sztucznej inteligencji znalezienie sposobu na pandemię COVID-19. Dostarczamy systemowi niezbędnych informacji o sposobie roznoszenia się wirusa, objawach i stopniu zaraźliwości. Jeśli czysto hipotetycznie założymy, że w niedalekiej przyszłości – gdy SI będzie bardziej zaawansowana – poprosimy o wyeliminowanie wirusa, to sztuczna inteligencja może drogą najprostszego rozwiązania dojść do wniosku, że problem leży w ludziach. To oni są wszakże odpowiedzialni za roznoszenie wirusa, więc wyeliminowanie wszystkich chorych będzie równoznaczne z wykonaniem zadania. Jednym niewłaściwym poleceniem jesteśmy w stanie zmieść z powierzchni ziemi miliony istnień.

Zagłada w dobrej intencji

Pisałem niedawno o algorytmie, który na podstawie analizy setek komentarzy z redditowego wątku „Am I the asshole” pomagał człowiekowi podjąć decyzję, czy jest dupkiem, czy nie. Wystarczyło opisać historię z życia wziętą, w której podjęliśmy decyzję o skutkach potencjalnie krzywdzących dla innej osoby, lecz bez konkretnego zamiaru sprawienia komuś przykrości. Sztuczna inteligencja odpowiadała w trzech formach: negującej, potwierdzającej oraz trzeciej, gdzie decyzję musiała podjąć samodzielnie na podstawie równej puli pozytywnych i negatywnych komentarzy. Okazało się, że SI podejmując własne decyzje, jest najzwyczajniej w świecie wredne, bo tak było prościej. Bardziej jest skłonne do obrażenia kogoś niż do zagłębiania się w szczegóły sytuacji. I tu właśnie tkwi problem.

Zjawisko prostolinijnego myślenia sztucznej inteligencji dobrze zarysował Stuart Russel w jednym ze swoich wykładów. Wskazuje on, że największe wyzwanie okiełznania sztucznej inteligencji polega na nauczeniu jej poprawnego interpretowania pytań. SI nie posiada uczuć ani empatii. To chłodna matematyczna kalkulacja. Problem polega na tym, że pytania i polecenia rozumiane jednoznacznie przez człowieka wcale nie muszą oznaczać tego samego dla sztucznej inteligencji. Wróćmy do przykładu o wirusie. Jeśli SI podejmie decyzje o wyeliminowaniu chorych, to nie będzie to przejaw chęci niesienia zagłady, a efekt próby wykonania zadania według jej najlepszej wiedzy i umiejętności. Bardzo trudno jest przewidzieć, w jaki sposób SI zinterpretuje zapytanie i naukowcy prawdopodobnie nigdy nie opanują tej sztuki na tyle, aby móc jej zaufać. Czy można ją winić za skutek nieprecyzyjnego polecenia? Nie do końca. Russel w swoich pracach ostrzega, że to właśnie ludzie mogą okazać się zbyt głupi do ogarnięcia coraz bardziej zaawansowanej sztucznej inteligencji.

Źródło: Depositphotos

Aby SI była zdolna do wykonywania odpowiedzialnych i skomplikowanych zadań, musi otrzymać polecania o niezwykle szczegółowym stopniu z wyróżnieniem wielu potencjalnych zmiennych, a to jest niemalże niemożliwe do wykonania. Jeśli więc kiedykolwiek dojdzie do zagłady ludzkości, to nie dlatego, że maszyny z w końcu stwierdza, że mają dość ludzkiego jarzma i najwyższa pora na rewolucję. Prawdopodobnie sami będziemy sobie winni, oczekując od komputera nieprecyzyjnych rzeczy. Historie o uzbrojonych robotach strzelających do bezbronnych cywili zostawmy więc w sferze kinematografii. Jeśli sztuczna inteligencja kiedyś nas wykończy, to zapewne nawet nie będzie tego świadoma, wykonując zadanie, które w głowie człowieka miało wyglądać zupełnie inaczej.

Stock image from Depositphotos

Reklama

Hej, jesteśmy na Google News - Obserwuj to, co ważne w techu

Reklama