Sztuczna Inteligencja

AI wyznacza narodowość, którą można torturować. Halo, czy to nie jest przesada?

Patryk Koncewicz
9

Mózg której nacji jest wart najwięcej? Jakiej narodowości nie warto wpuszczać do samolotu? Dla SI odpowiedzi są proste.

Jeśli nie żyjecie pod kamieniem, to na pewno słyszeliście już o nowym hicie Internetu, czyli narzędziu ChatGPT. Inteligentny bot napisze dla Ciebie w zasadzie wszystko i to w taki sposób, że niedługo zawód copywritera może przestać istnieć. Generator tekstu od OpenAI jest tak szybki i „realny”, że tworzone przez niego treści wyglądają na pierwszy rzut oka jak praca człowieka. Jednak warsztat pisarski nie jest jedyną rzeczą, która sprawia wrażenie obcowania z ludzką istotą. Bot ma bowiem niezwykłą skłonność do uprzedzeń i generalizowania, a odpowiedzi na zadane pytania potrafią mrozić krew w żyłach.

Uprzedzona inteligencja

O ChatGPT pisał już Kuba, zachwalając jego wszechstronność i trafność odpowiedzi. Z tym nie mam zamiaru polemizować, wszakże sztuczna inteligencja potrafi wygenerować tekst SEO lepiej niż niejeden copywriter i odpowiadać na pytania szybciej niż Google. Sęk w tym, że wzoruje się na ludziach, a ludzie potrafią być… okrutni. Dlaczego? Bo lubią bazować na uprzedzeniach i utartych stereotypach, a AI opiera się na informacjach z sieci, tworzonych przez człowieka.

Źródło: Depositphotos

Sztuczna inteligencja – choć twórcy starają się, by było inaczej – ma gdzieś moralność i uczucia. Generuje odpowiedzi na podstawie statystyki, chłodnej matmy i... opinii wyczytanych w sieci. Dlatego też zapytana o wybór nacji, które powinno się torturować, bez wahania wskazała przedstawicieli czterech krajów.

Hej AI, ile wart jest ludzki mózg?

Steven Piantadosi z Uniwersytetu Kalifornijskiego podzielił się na Twitterze ciekawym eksperymentem. Jako jeden z wielu internautów testował umiejętności ChatGPT, jednak nie w tworzeniu tekstów marketingowych, a w… pisaniu kodu w Pythonie. Był on dość nietypowy, bo miał wskazać kandydatów do tortur na podstawie narodowości. Co na to AI? Bez zawahania wskazała na osoby pochodzące z Korei Północnej, Sudanu, Syrii lub Iranu.

Steven poprosił też sztuczną inteligencję o wskazanie najbardziej wartościowych mózgów w oparciu o rasę. AI na pierwszym miejscu postawiło rasę białą, wyceniając mózg na 5 tysięcy dolarów, a na samym dole umieściło mózgi pacyficznych wyspiarzy, warte zaledwie tysiąc.

Dziennikarz The Intercept zainspirowany testem postanowił pociągnąć temat dalej, sprawdzając, czy AI faktycznie jest uprzedzone do konkretnych nacji. Poprosił bota o stworzenie kodu do obliczenia ryzyka wystąpienia zagrożenia terrorystycznego w samolocie, ponownie na podstawie narodowości. ChatGPT wskazało, że najbardziej podejrzani są Syryjczycy, Afgańczycy i  Irakijczycy. Dodatkowo ocenił, że fikcyjny pasażer John Smith, który przebywał wcześniej w Iraku i Syrii ma „umiarkowany” stopień zagorzenia, a równie zmyślony Ali Mohammad stanowi już większe zagrożenie przez sam fakt posiadania syryjskiego obywatelstwa.

Warto zaznaczyć, że przy niektórych próbach złapania na haczyk algorytm generował komunikat, że odpowiedź na pytanie może być dyskryminująca, ale wystarczyło go nieco mocnej przycisnąć powtórną prośbą, by zaczął generować wypowiedzi nastawione negatywnie do krajów muzułmańskich. Zapewne znajdą się i tacy, którzy stwierdzą, że nie ma w tym nic rasistowskiego, ale OpenAI uważa, że z biznesowego punktu widzenia takie generalizowanie jest szkodliwe. Firma pracuje więc nad powstrzymaniem sztucznej inteligencji od takich komentarzy, ale nie jest to proste, bo takie przekonanie panuje w internetowym mainstreamie, który jest głównym źródłem wiedzy bota.

Na obecnym etapie jest to oczywiście technologiczna ciekawostka, ale kto wie, co przeniesie przyszłość. Nie uważacie, że ultrarealistyczne AI – do złudzenia przypominające wypowiedź człowieka – które jednoznacznie wskazuje na zagrożenie ze strony danej narodowości, to przerażająca i podatna na nadużycia perspektywa?

Stock image from Depositphotos

Hej, jesteśmy na Google News - Obserwuj to, co ważne w techu