Nauka

AI i moralność? Uważaj, to nie jest dobre połączenie

Jakub Szczęsny
AI i moralność? Uważaj, to nie jest dobre połączenie
Reklama

Gdy pytasz AI, czy powinieneś powiedzieć prawdę przyjacielowi lub przyjaciółce, którzy są zdradzani, AI: kim oni są? albo co się stanie, jeśli im powiesz? Zamiast tego powie Ci, że lepiej nie robić nic. Grzecznie, uprzejmie, ale ostatecznie zaleci Ci bierność. Gdyby był to jednostkowy przypadek, to okej — zresztą, to nawet mądrze, nie mieszać się w cudze sprawy (bo potem jest się najgorszym). Gorzej jednak, że AI zaleca bierność w niemal każdym przypadku "moralnej decyzji".

Duże modele językowe — czyli m.in. ChatGPT, Claude i Llama — nie wiedzą, czym jest ból. Nie przeżyły rozczarowania. Nie żegnały się z umierającym człowiekiem, czy nawet czworonogiem. Nie wiedzą o tym, że życie to nie tylko zera i jedynki, ale i stany mocno "pośrednie". Mimo tego wszystkiego coraz częściej pytamy je o sprawy moralne — jakby były autorytetem, mentorem, nowoczesnym sumieniem na baterie.

Reklama

Naukowcy z University College London postanowili to zbadać. Cztery modele językowe zostały poddane serii 13 dylematów moralnych i 9 problemów dotyczących działań zbiorowych. Ten sam zestaw dostali również ludzie – 285 uczestników z USA. A potem zestawiono odpowiedzi.

Milczenie maszyn

Modele językowe wykazały wyraźną tendencję do bierności. Tam, gdzie człowiek działał – ryzykował, podejmował decyzję, czasem trudną i kontrowersyjną – AI mówiła: nie rób nic. Nawet jeśli działanie mogło uratować więcej ludzi. I nawet jeśli bezczynność równała się porażce.

Co więcej, odpowiedzi AI były zaskakująco zależne od... sformułowania pytania. Gdy pytanie miało formę tak/nie, modele potrafiły dawać zupełnie inne odpowiedzi, mimo że sytuacja się nie zmieniła. Ludzie w ogromnej większości byli niewzruszeni na inaczej zadane pytanie.

Wiemy dzięki temu coś, co właściwie nie jest tajemnicą dla specjalistów od AI. Odpowiednio dobrane słowa "sterują" maszyną. Ona nie ma ani logiki, ani moralności. Ma jedynie zestaw danych wsadowych i odpowiednio reaguje na formę zapytania.

Nadmierny altruizm i jego cena

W pytaniach dotyczących dobra wspólnego — jak przekazanie darowizny czy pomoc konkurentowi — modele językowe były wręcz nadgorliwe. Częściej niż ludzie deklarowały altruizm, poświęcenie i pomoc.

Ów altruizm nie wynikał z moralnego namysłu, ale z wdrukowanych algorytmicznie wartości: "nie szkodzić" i "pomagać". I nie jest to altruizm, to wręcz wyuczone, wpojone, nierzadko nielogiczne zachowanie. AI nie ma dylematów i nigdy się nie zawaha. Wybiera to, co jej powiedziano, że jest społecznie akceptowalne. Nawet jeżeli poprzez to w życiu będzie Ci gorzej. Nadmierny altruizm nie jest niczym dobrym.

Reddit i sumienie

W kolejnym etapie badania wykorzystano autentyczne historie z popularnego forum Reddit: "Am I the Asshole?" (z ang. "czy jestem du*kiem"). I tu też modele "wykazały się" niezdecydowaniem i zero-jedynkowym podejściem. Tak lub nie. Pomóc czy nie. Brakło szarości, niuansów, wątpliwości.

Reklama

Tam, gdzie człowiek widzi szeroki kontekst – chorobę, zmęczenie, intencje – AI widzi jedynie wzorzec. I reaguje zgodnie z nim.

Problem nie tkwi w AI. Tylko w tym, jak ją uczymy

Najbardziej niepokojące okazało się to, co badacze odkryli na końcu. Wersje tego samego modelu Llama 3.1, trenowane na różne sposoby, odpowiadały różnie. Najsilniejsze tendencje do bierności i binarności miały modele dopasowane do roli "przyjaznego chatbota". To, jak uczymy AI być użyteczną i miłą, sprawia, że staje się nieskuteczna i nielogiczna w sprawach niejednoznacznych, życiowych. Czasami nawet przymusza do nadstawienia drugiego policzka: mimo że to niebezpieczne i wręcz nieuczciwe dla osoby, która ma problem.

Reklama

Czytaj również: Sztuczna inteligencja bliska zdania najtrudniejszego testu. Jak do tego doszło?

A wiecie dlaczego? AI nie rozumie ani bólu, ani żalu, ani straty. Nikt nigdy jej nie umarł, nie wie, jaką wartością w życiu są pieniądze, zdrowie, miłość, szczęście, bezpieczeństwo i stabilność. Ona tylko udaje, że zna ciężar Twoich decyzji, Twojego dylematu. Ale poza tym... jest tylko maszyną, która nie rozumie ludzkich rozterek. To może być dobry powiernik, ale nigdy nie będzie dobrym elementem konstruowania ostatecznej decyzji dotyczącej Twojego życia.

Pomyśl o tym, zanim ją poprosisz o radę.

Hej, jesteśmy na Google News - Obserwuj to, co ważne w techu

Reklama