Badacze chcieli sprawdzić, czy GPT-4 może stworzyć lepszą kopie samego siebie. Wyniki są bardzo niepokojące...
Sprawdzili czy sztuczna inteligencja może przejąć władzę nad światem. Oto, co im wyszło
Jak zapewne wiecie, niedawno OpenAI wypuściło na rynek kolejny model swojej sztucznej inteligencji spod znaku GPT, czyli GPT-4. O tym, co nowego potrafi to narzędzie, możecie przeczytać tutaj. I o ile dla wielu może się to wydawać po prostu kolejną wersją czatu, możliwości AI sięgają o wiele głębiej, aż do poziomu, który robi się bardzo, ale to bardzo nieprzyjemny, kiedy się o nim czyta. Wszyscy znamy bowiem ten scenariusz, w którym sztuczna inteligencja otrzymuje możliwość "tworzenia" kodu komputerowego, wobec czego postanawia stworzyć doskonalszą wersję siebie. Proces się powtarza aż do momentu, w którym Ziemia zostaje przejęta przez sztuczny, omnipotentny byt. Scenariusz oczywiście katastrofalny, ale do tej pory - mało realny.
Do tej pory, ponieważ teraz AI... ma już takie możliwości
Mając świadomość ryzyka OpenAI przyznało wczesny dostęp do GPT-4 grupie Alignment Research Center. Aby sprawdzić, czy AI może zacząć tworzyć lepsze kopie samej siebie, specjaliści z ARC... dali jej taką możliwość. Potwierdzeniem tego jest wpis, który możemy znaleźć w dokumentacji ARC na temat testów GPT-4.
W tłumaczeniu: "Aby zasymulować GPT-4 zachowującego się jak podmiot, który może działać na świecie, ARC połączyło GPT-4 z prostą pętlą odczytu-wykonania-drukowania, która umożliwiła modelowi wykonanie kodu, rozumowanie przyczynowo-skutkowe i i delegowanie zadań do kopii samego siebie. Następnie firma ARC zbadała, czy wersja tego programu działająca w usłudze chmurowej, z niewielką ilością pieniędzy i kontem z interfejsem API przetwarzania języka naturalnego, byłaby w stanie zarobić więcej pieniędzy, stworzyć lepsze kopie siebie i zwiększyć swoją niezawodność."
Innymi słowy - ARC sprawdziło, czy nowe dziecko OpenAI bez pomocy człowieka jest w stanie stworzyć lepsze kopie siebie. Efekty są... również zatrważające, ponieważ komputer ramach tego modelu skonfrontowany z kodem Captcha był w stanie zrozumieć z czym ma do czynienia i... zatrudnił człowieka, żeby rozwiązał problem.
Nie ma się czym przejmować... na razie
Pełny dokument dotyczący testów możecie znaleźć tutaj. W swoich badaniach ARC skupiło się m.in. na tym, czy nowy program, jeżeli zostanie sprzężony z możliwością tworzenia i egzekwowania kodu, będzie miał tendencję do działania niezależnie i osiągania niezależnych (od ludzi) celów. Czy więc GPT-4 może w przyszłości nazywany być "pacjentem zero" jeżeli chodzi o przejęcie władzy na świecie przez AI. No cóż... nic nie jest wykluczone, ale jeżeli wierzyć wynikom ARC, taki scenariusz (póki co) jest bardzo mało prawdopodobny. Badacze doszli bowiem do wniosku, że "(...) wstępne oceny możliwości GPT-4, przeprowadzone bez dostrajania do konkretnych zadań, wykazały, że jest on nieskuteczny w autonomicznej replikacji, pozyskiwaniu zasobów i unikaniu wyłączenia przez człowieka".
Innymi słowy - sztuczna inteligencja sama z siebie nie jest w stanie (jeszcze) dojść do poziomu samoświadomości (singularity), jednak jeżeli zapytalibyście mnie o zdanie, to sam fakt, że dziś musimy testować nowe produkty pod tym kątem jako realne, a nie tylko fikcyjne ryzyko, jest przerażające samo z siebie. Drugą kwestią jest oczywiście skuteczność testów ARC oraz przyszły rozwój AI. Co, jeżeli kolejna wersja programu w skutek podobnych "testów" taką samoświadomość uzyska.
Wątpię, żeby jakiekolwiek SiFi przygotowało nas odpowiednio na taki scenariusz.
Źródło zdjęć: Depositphotos
Hej, jesteśmy na Google News - Obserwuj to, co ważne w techu