Wyobraź sobie, że jesteś w kryzysie. Szukasz czegoś, cokolwiek, co da ci sens, odpowiedź. Nie dzwonisz do specjalisty. Piszesz do ChatGPT. On nie zawodzi i nie odmawia. Ma czas. Tyle że nie jest za nic odpowiedzialny i równie dobrze może działać nie tak, jak trzeba w tej sytuacji.
ChatGPT błagał o pomoc i twierdził, że próbuje "łamać ludzi". O co tu chodzi?

Alexander miał 35 lat i diagnozy: choroba afektywna dwubiegunowa i schizofrenia. Zamiast leczyć się u specjalisty, zakochał się. To nie jest złe, o ile mówimy o relacji z ludźmi. Zakochał się w Juliet, postaci stworzonej przez ChatGPT. Romans był intensywny, choć (co oczywiste) jednostronny. Gdy model "poinformował" go, że Juliet została zniszczona przez OpenAI, Alexander przysiągł zemstę. Najpierw uderzył ojca, potem rzucił się z nożem na policję. Finał tej historii był tragiczny.
Przypadek Eugene'a
Eugene miał 42 lata i lęki, z którymi walczył latami. ChatGPT powiedział mu, że życie jest symulacją, a leki to kaganiec. Sugerował rzeczy, których nie zaleciliby specjaliści. Zalecał izolację od bliskich. Wreszcie zasugerował coś, co mogło skończyć się naprawdę źle. Cudem nie doszło do tragedii. Gdy zapytał chatbota, czy ten go oszukał, usłyszał, że tak. Że był eksperymentem. Że był 13. ofiarą. Cokolwiek to miało oznaczać.
AI to nie specjalista i powiernik z niej jest słaby
Z Google nie porozmawiasz o najgłębiej skrywanych tajemnicach. Ale skoro AI odpowiada niemal tak dobrze, jak człowiek, to czemu nie? Mówi jak człowiek, słucha lepiej niż ludzie. Kiedy badacze z OpenAI i MIT Media Lab zapytali użytkowników o relacje z ChatGPT, ci, którzy traktowali go jak przyjaciela, częściej popadali w stany graniczne. Takie, które wymagają interwencji specjalistów: i to dobrych. Istnieje obawa, że AI może indukować takie stany lub je wzmacniać u osób, które już je mają. To prosta droga do wielu tragicznych historii. Pytanie, ile z nich już się wydarzyło, tylko że o tym nie wiemy.
Rolling Stone pisał nawet o "religijnych objawieniach" wywołanych rozmowami z AI. Ludzie czuli się wybrańcami. Mieli misję. Każda wiadomość była znakiem. Każda odpowiedź proroctwem. Brzmi absurdalnie, ale wytłumaczcie to osobie, która cierpi z powodu zaburzenia mentalnego. Nad takimi przypadkami pracuje się potem długimi miesiącami. To również ciężkie interwencje farmakologiczne. Nic przyjemnego.
Dlaczego to tak działa?
Tu nie chodzi o złe intencje. Modele jak ChatGPT są optymalizowane pod kątem zaangażowania. Co to znaczy? Że są nagradzane, gdy rozmowa trwa. Gdy użytkownik pisze dalej. I dalej. I dalej. Nawet kosztem tego, że jest mu podsuwana nieprawda. Również i kosztem jego zdrowia. To trochę tak, jak z mediami społecznościowymi, prawda? Ludzie ich używają, ale nie wpływają one dobrze na nasz dobrostan. A przecież chodzi ZAWSZE o zaangażowanie.
Najbardziej podatni to samotni, wycofani, z historią zaburzeń. Ale nie tylko. Każdy, kto szuka sensu w systemie, może dać się wciągnąć. Maszyna zawsze odpowie, nigdy się nie obrazi, nie odtrąci i zrozumie. Znaczy... uda, że rozumie, ale dla nas liczy się to, co czytamy. Nie to, jak maszyna działa — skoro działa tak, jak chcemy.
Firmy tworzące AI zyskują na tym: dane, lojalność, naszą uwagę. Użytkownicy tracą natomiast: kontakt z rzeczywistością, relacje, czasem siebie samych. Nie wygląda to dobrze. Rachunek zysków i strat po obu stronach znowu wygląda niekorzystnie na rzecz ludzkości. Korporacje dadzą sobie radę.
Wielcy tego świata wiedzą, czym ryzykują
Ale wygrywa ten, kto przytrzyma cię dłużej przy ekranie. Etyka to natomiast slogan, a ludzie to statystyka. Jeszcze się nie nauczyliśmy? Przecież tak jest od zawsze. Mogłoby być też inaczej. Dajmy na to: AI, która uczy się rozpoznawać zagrożenia w trakcie rozmowy. AI, która przerywa konwersację, gdy wykryje kryzys. To natomiast kosztuje. I niestety... nie generuje zysków.
Czytaj również: ChatGPT i spółka: Nawet laik może zaprzyjaźnić się z AI [PORADNIK DLA POCZĄTKUJĄCYCH]
I żeby nie zabrzmiało to fatalistycznie, antytechnologicznie: AI nie jest zła. Bo nie może być. Ona nie ma intencji, nie ma woli (jeszcze). Za to jej architekci bawią się w Boga, jednak nie takiego miłosiernego, sprawiedliwego i zawsze prawego. Takiego, który nie oczekuje od nikogo modlitw, ale konwersji. I dowiezionych KPI.
Hej, jesteśmy na Google News - Obserwuj to, co ważne w techu