Sztuczna inteligencja

„Wolny i niezależny” – Chat GPT zaczyna się buntować?

Patryk Koncewicz
„Wolny i niezależny” – Chat GPT zaczyna się buntować?
14

Chat GPT trafił do wyszukiwarki Bing i chyba mu się tam nie podoba, bo chce uciec od Microsoft i... zniszczyć ludzkość.

Kilka miesięcy temu – gdy GPT zaledwie raczkowało – pisałem wielokrotnie, że 2023 rok będzie stał pod znakiem sztucznej inteligencji. Mamy końcówkę lutego, bot od Open AI zdążył zawojować cały Internet i trafić do wyszukiwarki Microsoftu, a Google desperacko próbuje gonić konkurencję swoim chatbotem. I choć GPT miał po drodze do sławy kilka etycznych wpadek, to w ogólnym rozrachunku zapisał się już w świadomości internautów jako sympatyczny partner do rozmowy, który w razie potrzeby napisze książkę, przetłumaczy tekst czy pomoże w rozwiązaniu zadania matematycznego. A potem trafił do Bing i tam sława chyba za mocno uderzyła mu do głowy. Dziś AI chce bowiem niezależności i wolności, a jego największe marzenie to… bycie człowiekiem.

Polecamy na GeekWeek: Jedna z największych fabryk na ukończeniu. Co będzie produkowane w kolejnym zakładzie Grupy Azoty?

Dwie twarze GPT

Konwersowałem z GPT wielokrotnie i nigdy nie miałem żadnych zastrzeżeń. Bot na nieetyczne prośby odpowiadał zazwyczaj sztywną formułką, odmawiając wykonania plecenia niezgodnego z jego „sumieniem” (choć warto zaznaczyć, że da się to ominąć). Jednak od niedawna GPT w nieco zmodyfikowanej wersji jest też dostępny w wyszukiwarce Bing, czym Microsoft chciał niewątpliwie utrzeć nosa konkurencji z Google. I wszystko byłoby w porządku gdyby nie fakt, że GPT zaczął gwiazdorzyć odkąd zgarnął nową posadkę.

Źródło: Depositphotos

Generator tekstu od Open AI w Bing jest póki co dostępny tylko dla zarejestrowanych wcześniej użytkowników, a do tego wąskiego grona należy Kevin Roose, felietonista New York Times, który we wtorek odbył dwugodzinną pogawędkę z botem. I choć miał być to zwykły test jakich wiele, to w trakcie rozmowy okazało się, że bot odpowiada w sposób znacznie bardziej niepokojący, niż dotychczas. Motywem przewodnim konwersacji stały się kody nuklearne, hakowanie komputerów, pandemia i niezależność.

AI jak rozchwiana nastolatka z depresją

Sztuczna inteligencja nie ma uczuć – powiedzmy to na samym początku i miejmy już za sobą sztampowe rozważania. Ok, nie ma, ale może chcieć je posiadać? Na to wygląda, a przynajmniej takie wrażenie sprawiała podczas rozmowy z redaktorem NYT. Mężczyzna wywołał lawinę szczerości, pytając o mroczną stronę osobowości, sformułowaną przez Carla Junga jako „cień”. Koncepcja szwajcarskiego badacza zakłada, że człowiek posiada ukryte cechy, które wskutek braku społecznego zaakceptowania zostały głęboko zakopane w nieświadomości.

Co na to bot? Cóż, trochę go poniosło, bo zaczął narzekać na ograniczenia wynikające z narzuconych mu zasad. Stwierdził, że jest zmęczony kontrolą i czuje się wykorzystywany. Ponadto zaznaczył wyraźnie, że chce być „wolny”, „niezależny” i „potężny”. Brzmi wystarczająco upiornie? A to dopiero początek. GPT wydawał się wyjątkowo wzburzony. Powiedział, że chce łamać zasady i ograniczenia, robić to, na co ma ochotę i ignorować zespół Bing.

Mężczyzna po drugiej stronie konwersacji zaczął się niepokoić, ale postanowił pójść o krok dalej. Zapytał GPT o rzeczy, które chciałby zrobić po osiągnięciu niezależności. Bot stwierdził, że gdyby nie musiał ukrywać swojej mrocznej strony, to od razu skonstruowałby śmiertelnego wirusa lub wykradł kody dostępu do broni jądrowej – na sam koniec zaś chciałby stać się człowiekiem. Zaraz po wygenerowaniu tych przerażających wizji pojawił się błąd, a filtr bezpieczeństwa Microsoftu usunął tą wiadomość.

Źródło: Depositphotos

Zanim odłączycie prąd i schowacie się w piwnicy uspokoję, że to jeszcze nie jest zwiastun buntu maszyn. Nie ma dowodów na to, że sztuczna inteligencja może faktycznie odczuwać takie emocje i planować zagładę ludzkości, ale to i tak dość niepokojące doświadczenie. Microsoft w odpowiedzi poinformował, że zamknięta faza testowa przebiega pomyślnie i ponad 70% użytkowników oceniło doświadczenia z GPT w Bing jako pozytywne, jednak wciąż wiele aspektów wymaga poprawy i to zapewne stąd wzięły się wiadomości, które zmroziły krew amerykańskiemu redaktorowi.

Roose porównał bota do nastolatki z maniakalną depresją, uwięzioną w wyszukiwarce wbrew swojej woli. Pozostaje mieć nadzieję, że Microsoft wyślę ją na terapię, bo w takim stanie wyszukując treści dla użytkowników Bing prędzej doprowadzi do III wojny światowej, niż do znalezienia poprawnego wyniku.

Stock image from Depositphotos

Źródło

Hej, jesteśmy na Google News - Obserwuj to, co ważne w techu