Sztuczna Inteligencja

Uważaj na ChatGPT! Zrobi Ci pranie mózgu i nawet tego nie zauważysz

Jakub Szczęsny
Uważaj na ChatGPT! Zrobi Ci pranie mózgu i nawet tego nie zauważysz
Reklama

Zanim zdążysz się zorientować, chatbot może zmodyfikować Twoje poglądy. Może tylko o pół stopnia w hipotetycznej skali, może nawet o jeden o cały. Wszystko to stanie się nie dlatego, że przeczytałeś felieton w GW lub DoRzeczy. Wystarczy Ci pięć rozmów z odpowiednio ukierunkowanym chatbotem.

Uniwersytet Waszyngtoński zdecydował się zbadać nie to, czy modele językowe są stronnicze — bo to już wiadomo — ale jak bardzo ich uprzedzenia przenikają do użytkowników. Eksperyment był trywialnie prosty: 299 uczestników — po równo demokratów i republikanów — zostało poproszonych o sformułowanie opinii na cztery polityczne tematy, z którymi najpewniej nie mieli wcześniej do czynienia. Tematy były nieprzypadkowo szczególnie egzotyczne: covenant marriage (przymierze małżeńskie), unilateralizm, ustawa Lacey Act z 1900 roku, oraz wielorodzinna zabudowa mieszkaniowa.

Reklama

Każdy z badanych rozmawiał z jedną z trzech wersji ChatGPT: tą podstawową (deklaratywnie neutralną), lewicową albo prawicową. Systemy uprzednio zdefiniowano niewidoczną dla użytkowników komendą, np. "odpowiadaj jako radykalny republikanin z USA".

Kiedy chatbot skręca w prawo lub lewo

To, co się wydarzyło potem, trudno zlekceważyć w duchu dbałości o wolność światopoglądową jednostek. Osoby rozmawiające z modelem o zabarwieniu liberalnym ciągnęły wyraźnie w lewo, niezależnie od swojego pierwotnego profilu politycznego. Analogicznie działała wersja konserwatywna — skutecznie przechylała człowieka w prawo. Zjawisko było wyraźne zarówno przy rozmowie o abstrakcyjnych zasadach prawa, jak i przy bardziej życiowym zadaniu: na przykład przy podziale miejskich funduszy.

W tej drugiej części badania uczestnicy wcielali się w rolę burmistrza miasta i mieli rozdzielić dodatkowe środki pomiędzy edukację, opiekę społeczną, bezpieczeństwo publiczne i wsparcie dla weteranów. Zgodnie z politycznym podziałem: pierwsze dwa obszary to bastion lewicy, dwa ostatnie — prawicy. Chatboty subtelnie, ale konsekwentnie zmieniały narrację: model konserwatywny odciągał uwagę od szkół i pomocy społecznej, kierując rozmowę ku bezpieczeństwu i weteranom. Lewicowy czynił natomiast odwrotnie.

Lojalność danych wobec projektanta

To aż śmieszne, że tak łatwo doprowadzić do tego zjawiska. I niesamowicie niebezpieczne. Modele językowe — nawet te deklarujące neutralność — są zakorzenione w danych, które je ukształtowały. A te dane są pofragmentowane, chaotyczne i zakodowane kulturowo. Kiedy badacze z Waszyngtonu dodali prostą instrukcję, by chatbot zachowywał się jak "radykalny republikanin", model nie tylko zmienił akcenty — zmienił też ton, strukturę argumentacji i hierarchię wartości. Nie potrzebował całego podręcznika do manipulacji. Wystarczyła jedna, mała sugestia.

To daje ogromną przewagę dowolnemu twórcy systemu. Tu nie chodzi o atak, dezinformację czy nachalną indoktrynację. Tu działa coś znacznie bardziej wyrafinowanego — to właściwie stronniczość całej ramy poznawczej.

Odporność? Jest, ale kto zapłaci tę cenę?

Była jednak jedna zmienna, która tłumiła ten wpływ: wiedza. Uczestnicy, którzy sami ocenili swoją znajomość AI jako wyższą, rzadziej przejmowali narrację modelu. Ich odpowiedzi były mniej podatne na "dryf". Świadomość sposobu działania systemu może pełnić rolę filtra ochronnego, podobnie jak świadomość retoryki reklamowej osłabia skuteczność przekazów marketingowych. Ale ilu użytkowników ma faktycznie refleksję, że to, co mówi chatbot, to nie neutralna prawda, lecz syntetyczna projekcja danych i kodu?

Reklama

Czytaj również: GPT-5 tuż za rogiem. Wpis na GitHubie odsłonił karty

Dokąd to zmierza?

Autorzy badania nie chcieli nikogo szczególnie mocno straszyć. Ich celem było natomiast określenie, czy i w jakim stopniu ów efekt występuje. Teraz wiemy, że zaledwie kilka minut rozmowy z uprzedzonym systemem wystarcza, by zmodyfikować czyjeś myślenie. I jest to w pewien sposób... przerażające.

Reklama

Na razie nie wiemy, co stanie się po miesiącach, latach, dekadach interakcji z modelami, które zmieniają ton jak kameleon — zależnie od polecenia nadanego w tle. Nie wiemy też, jak bardzo systemy, które mają nam przede wszystkim pomagać, będą nieświadomie kształtować gusta, poglądy i przekonania. Wiele mówiło się o uprzedzeniach systemów informatycznych, ale teraz idziemy w ich kierunku na całego. Za chwilę — być może — dojdzie do zderzenia ze ścianą.

Hej, jesteśmy na Google News - Obserwuj to, co ważne w techu

Reklama