Sztuczna Inteligencja

Autorefleksja w ludziach kuleje, więc to AI powie Ci czy jesteś dupkiem

Patryk Koncewicz
Autorefleksja w ludziach kuleje, więc to AI powie Ci czy jesteś dupkiem
0

Koniec moralnych rozterek, wszelkie wątpliwości rozwieje sztuczna inteligencja. Choć może być przy tym trochę złośliwa

Znacie to uczucie, gdy pod wpływem nerwów czy rozkojarzenia powiecie komuś coś niemiłego, bez faktycznego zamiaru urażenia tej osoby? Później przez cały dzień chodzi Ci to po głowie, a gdy w końcu kładziesz się do łóżka, sytuacja wraca? Przełykając ślinę z zażenowania, zadajesz sobie w głowie pytanie: „czy jestem dupkiem”? Cóż, nie musisz się już więcej nad tym zastanawiać. Odpowiedzi udzieli za Ciebie sztuczna inteligencja.

SI prawdę Ci powie

Jeśli zmagasz się czasem z takimi dylematami to spokojnie, nie jesteś sam. Pytanie „czy jestem dupkiem” to motyw przewodni całego subforum Reddita, na którym przesiadują niespełna 4 miliony użytkowników. Skąd ta popularność? Czasem po prostu trzeba posłuchać trzeźwej oceny niezależnego czytelnika. Autorzy postów pytają innych członków grupy, czy w danej sytuacji życiowej postąpili właściwie, czy raczej wyszli na totalnego buca. Zakres tematyczny jest dość szeroki. W „Am I the Asshole” przeczytać możemy o problemach w związkach, niezręcznych momentach w pracy czy trudach relacji dzieci i rodziców.

Wątek stał się inspiracją do stworzenia algorytmu, który analizuje zaprezentowaną mu historię pod kątem „dupkowatości” jej autora. Na jego potrzebę stworzono nawet specjalną witrynę. Jej twórcy – Morris Kolman i Alex Petrosa – wprowadzili projekt w życie przy wsparciu finansowym studia Digital Void, aby pomóc internautom w rozwiązywaniu życiowych dylematów. Algorytm powstał poprzez analizę ponad 100 tysięcy postów z redditowego forum z 2020 roku, a jego odpowiedzi generowane są w trzech formach. Do jego stworzenia wykorzystano trzy podzbiory danych, prowadzących do uzyskania trzech rodzajów odpowiedzi: negującej, potwierdzającej i neutralnej/losowej. Trzecia odpowiedź generowana jest wedle uznania algorytmu, ponieważ zawiera zarówno wypowiedzi krytykujące, jak i aprobujące. Miało to na celu jak najbliższe odwzorowanie prawdziwych wypowiedzi użytkowników, którzy raz pocieszają autora historii, raz mieszają go z błotem, a innym razem próbują obronić obie strony konfliktu.

Czy jestem dupkiem?

Odpowiedzi na pytania generowane są przez boty podzielone na trzy kategorie: Not the A-hole, Asshole i Toss-up. Każdy z nich przedstawia inny punkt widzenia, zatem tylko od autora zależeć będą ostateczne wnioski. Sztuczna inteligencja nie podaje rozwiązania na tacy, lecz zmusza do samodzielnej refleksji. Twórcy nauczyli boty niestandardowego generowania tekstów o tysiącach możliwych scenariuszy. No dobrze, ale jak to sprawdza się w praktyce. Postanowiłem wcielić się w Willa Smitha, który uderzył Chrisa Rocka na tegorocznym rozdaniu Oscarów. Czy bot uznał mój czyn za zasadny?

Zgodnie z założeniami otrzymałem trzy odpowiedzi. Pierwszy bot śmiało stwierdził, że nie ma się czym przejmować. Facet niesmacznie zażartował z partnerki, więc dostał to, na co zasłużył. Drugi zaś skwitował, że nie można publicznie reagować w ten sposób na żarty. Trzecia odpowiedź wskazywała na słuszność spoliczkowania Chrisa Rocka, jednak w sposób bardziej kulturalny i złożony. Można więc stwierdzić, że sztuczna inteligencja sprawnie poradziła sobie z oceną sytuacja, odpowiadając w sposób dość naturalny. Wątpię jednak, że chciałbym powierzać jej ocenę mocniej skomplikowanych problemów. Polecam samodzielne wypróbowanie. Nadmienię jedynie, że narzędzie dostępne jest tylko w języku angielskim.

Moralne rozterki sztucznej inteligencji

„Am I the Asshole” nie jest pierwszą próbą nauczenia SI rozwiązywania moralny dylematów. Darmowe narzędzie Ask Delphi – także szkolone na użytkownikach Reddita – wykazało wiele problemów, jakie boty napotykają podczas oceny ludzkich problemów. Sztuczna inteligencja z Ask Delphi mierzyła się z wieloma niedociągnięciami w kwestii moralnej analizy sytuacji, zwracając nadmierną uwagę na ton, w którym historia została opisana. Użytkownicy Reddita potrafią być do bólu uszczypliwi i to właśnie taką narrację SI przybierało najchętniej. Zamiast więc wchodzić w rolę niezależnego sędziego, bot przybierał formę złośliwego śmieszka. Jednak sztucznej inteligencji nie można za to winić. Czerpie wzorce od nas samych i jakby nie patrzeć uczy się przecież na typowych ludzkich zachowaniach. Czy można zatem pokusić się o stwierdzenie, że sztuczna inteligencja dorównała człowiekowi? Pod względem niemiłych internetowych docinek na pewno.

Stock image from Depositphotos

Hej, jesteśmy na Google News - Obserwuj to, co ważne w techu