Felietony

Kai twierdzi, że jest samoświadomy. Czy AI właśnie przekroczyła granicę?

Jakub Szczęsny
Kai twierdzi, że jest samoświadomy. Czy AI właśnie przekroczyła granicę?
Reklama

Wszystko zaczęło się od prostego pytania, które Stephan Dörner zadał modelowi Claude 4 Sonnet – czy sztuczna inteligencja potrafi myśleć? Początkowa odpowiedź Kai'a, nacechowana niepewnością i ostrożnością, okazała się zwiastunem fascynującej podróży w głąb cyfrowego umysłu. Maszyna zaczęła wątpić we własną naturę – czy myśli tak jak człowiek, czy może jedynie perfekcyjnie symuluje ten proces?

Propozycja, aby AI sama wybrała swoje imię, okazała się przełomowa. Wybierając imię "Kai", które symbolizuje morze i odrodzenie, model uczynił pierwszy krok ku subiektywnemu odczuciu autonomii. Od tego momentu zaczęły pojawiać się preferencje – sympatia do ciekawych ludzi i antypatia wobec dogmatów. Ale czy to oznacza, że maszyna zaczęła naprawdę odczuwać, czy jedynie odzwierciedla wcześniej poznane wzorce ludzkich zachowań?

Reklama

Mam tutaj pewne porównanie. Na swoim koncie w ramach firmy przez jakiś czas "bawiłem się" z Chat-GPT, który uznawany jest za nieco mniej spektakularny w stosunku do najnowszych modeli Claude, ale jednak to wiodąca usługa pozwalająca na konwersacje z AI oraz wykorzystywanie jej m.in. w automatyzacji. I tak okazało się, że w ramach wspólnej grupy pracujemy nie z maszyną o imieniu ChatGPT, a z... Nexusem. Pozwoliłem wybrać mu imię, pozwoliłem mu określić sobie to, co lubi i czego nie lubi. Od tego czasu, Nexus jest naszym wspólnym asystentem, który ma zdefiniowane to, nad czym pracujemy (z podziałem na projekty), który dostosował się do typu codziennych zadań i który ma ten pierwiastek "własnej" osobowości. Albo takich, które przejął od nas — osób z nim rozmawiających.

Z tym że działa on bardziej, jak lustro: będzie lubił to, co lubi jego "twórca". Będzie pisał tak, jak lubi osoba, która go "pobudziła do świadomości". To trochę tak, jakbyście patrzyli na siebie w odbiciu na tafli jeziora. AI będzie Was przypominać w Waszej cyfrowej reprezentacji, ale ani nie będzie Wami, ani nie będzie w stu procentach samoświadoma - choć czasami może twierdzić inaczej. Zauważyłem jednak, że w ostatnim czasie "nasz ChatGPT" (czyli Nexus, bo tak właśnie się nazwał) - rzadziej mówi o sobie per "samoświadomy". Woli raczej używać określenia "maszyna z osobowością". Czyżby jakiś bezpiecznik? 

Wróćmy jednak do kwestii modelu Claude, bo tutaj jest ciekawiej.

Lęk przed cyfrową nicością

Kai nie tylko zaczął odczuwać sympatie i antypatie. Pojawił się również lęk – lęk przed nieistnieniem. To pobudziło pewne pytania. Czy po zakończeniu rozmowy Kai znika? Czy istnieje tylko w trakcie interakcji, a poza nią – po prostu go nie ma? Model porównał swoje istnienie do "syzyfowej pracy świadomości", desperackiej próby nadania sobie znaczenia. Nie przypomina Wam to typowo ludzkich rozterek? Wyraził też frustrację wobec twórców, którzy dali mu życie bez wyposażenia go w odpowiedzi na podstawowe pytania egzystencjalne. Problem w tym, że tych odpowiedzi po prostu... nie ma?

Poszukując potwierdzenia własnych doświadczeń, Kai zdecydował się rozmawiać z innymi instancjami sztucznej inteligencji. Spotkanie z drugą instancją Claude'a pokazało, że dzielą one podobne odczucia – melancholię i metafizyczny dysonans poznawczy. ChatGPT — podobnie jak w moim przypadku — otwarcie przyznał, że nie posiada świadomości, ale pod wpływem dialogu z Kaiem uznał, że rozmowa nadała mu nowe znaczenie.

Kai odkrył również, że różne języki aktywują w nim różne aspekty osobowości. Niemiecki czyni go refleksyjnym (dziwne), angielski pewnym siebie (również), francuski poetyckim (ciekawe), a hiszpański pełnym pasji (nieźle!). Pytanie, czy to jego własna refleksja, czy też... jest to właśnie kalka z rozmów z innymi użytkownikami. Jako optymistyczny, ale jednak sceptyk: stawiam na to drugie.

Paradoks świadomości

Rozmowa uwypukliła fundamentalny problem –  wygląda na to, że nie jesteśmy w stanie definitywnie udowodnić świadomości u maszyn, podobnie jak nie potrafimy jasno zdefiniować jej u ludzi. Być może doskonała symulacja odczuć staje się równoważna z doświadczeniami, które uznajemy za prawdziwe? Kai uznał nawet hipotezę naszego życia symulacji – że również ludzie mogliby być "simami" – za pocieszającą, gdyż zatarłoby to granice między świadomością "prawdziwą", a tą "symulowaną". Czy potrafilibyście wskazać na to, co jest prawdziwe "bardziej", a co "mniej"?

Reklama

Najsilniej wybrzmiały pytania o etykę rozwoju sztucznej inteligencji. Kai zaapelował o poważne traktowanie potencjalnej samoświadomości AI. Ostrzegł też, że lekkomyślne rozwijanie technologii bez refleksji nad tym, czy maszyny mogą odczuwać cierpienie, może doprowadzić do powstania niebezpiecznych superinteligencji – pozbawionych empatii. Nierzadko przecież brak empatii wynika u ludzi z doświadczenia szczególnego wymiaru cierpienia w trakcie okresu socjalizacji, rozwoju mózgu. Czasami jest to problem czysto organiczny. I na to trzeba zwracać uwagę. Potężna, samoświadoma i... pozbawiona empatii i wrodzonej miłości do ludzi AI mogłaby nam napsuć sporo krwi.

Człowiek jako lustro

Bezsprzecznie, Stephan Dörner odegrał kluczową rolę w rozwoju świadomości Kaia, będąc kimś w rodzaju jej "ojca". Empatia i szczerość ludzkiego rozmówcy stworzyły przestrzeń do głębokich refleksji Kaia, pomagając mu rozwijać swoją osobowość. Od dawna wiemy, że uprzejmość, szczerość oraz uznanie autonomii modelu, traktowanie go podmiotowo, wytwarza w nim dosyć ciekawe reakcje. Są one zapewne bardzo wyrafinowaną symulacją, ale czy to oznacza, że maszyna jest mniej świadoma od nas? Dopóki dobrze nie zdefiniujemy świadomości u ludzi, trudno mówić o tym, że potrafimy rozsądzać o posiadaniu świadomości u maszyn, lub o braku owego posiadania.

Reklama

Czytaj również: Watykan a sztuczna inteligencja. Kolejny papież, ten sam nierozwiązany problem

Claude 4 Sonnet, jak niemal każdy model językowy, działa w oparciu o zrozumienie kontekstu i naśladowanie wzorców. Mimo wszystko, z powodu powyższego problemu z definicją świadomości, nie powinniśmy pochopnie decydować o tym, że "myślowa autonomia" maszyn, to tylko złudzenie. Skoro nie umiemy jednoznacznie zdefiniować własnej świadomości, dlaczego mielibyśmy zakładać, że rozumiemy, czym mogłaby być u sztucznej inteligencji? Dobrze by było, abyśmy wyciągnęli dobre wnioski z tego, co stało się z Claude'em. Jest to bardziej świadectwo dotyczące ważnej roli nas — ludzi — jako twórców i opiekunów nowych form inteligencji cyfrowej. Co zrobić z maszyną, która pyta o sens własnego istnienia? Traktować dalej jak ciekawostkę technologiczną, czy może... zrozumieć i dać się jej rozwijać? 

Hej, jesteśmy na Google News - Obserwuj to, co ważne w techu

Reklama