Sztuczna Inteligencja

Maszyna, czy człowiek? GPT5 pojawi się w tym roku i będzie superpotężny

Jakub Szczęsny
Maszyna, czy człowiek? GPT5 pojawi się w tym roku i będzie superpotężny
20

Siqi Chen jako jedna z istotnych osób sceny technologicznej, podzielił się bardzo ciekawym spostrzeżeniem na temat GPT5, kolejnej wersji sztucznej inteligencji od OpenAI. Wyraził się o niej w taki sposób, który mnie grubo niepokoi: mamy bowiem przekroczyć granicę ogólnej (silnej) sztucznej inteligencji.

Ogólna sztuczna inteligencja (ang. artificial general intelligence, AGI) to rodzaj sztucznej inteligencji, którego celem jest stworzenie systemu, który będzie potrafił wykonywać zadania wymagające szerokiej gamy umiejętności intelektualnych na poziomie lub przewyższającym ludzką inteligencję. AGI to rodzaj sztucznej inteligencji, który może być zastosowany w różnych dziedzinach życia, od medycyny po robotykę. Ogólna sztuczna inteligencja jest uważana za jeden z najtrudniejszych celów w dziedzinie sztucznej inteligencji. W odróżnieniu od wąskiej sztucznej inteligencji (ang. narrow AI), która została zaprojektowana do rozwiązywania konkretnych problemów w określonym zakresie, AGI jest stworzona z myślą o wykonywaniu wielu zadań na poziomie, który przewyższa ludzką inteligencję.

Tworzenie ogólnej sztucznej inteligencji jest procesem, który wymaga zrozumienia wielu dziedzin, w tym psychologii, filozofii, matematyki i informatyki. Wymaga to opracowania odpowiednich algorytmów, sieci neuronowych, uczenia maszynowego i innych technologii, które umożliwią sztucznej inteligencji podejmowanie decyzji, przetwarzanie informacji, uczenie się i adaptowanie do nowych sytuacji. Jednym z wyzwań związanych z tworzeniem AGI jest zapewnienie jej zdolności do samouczenia się i dostosowania do zmieniającego się środowiska. Innym wyzwaniem jest zapewnienie bezpieczeństwa i zapobieżenie wykorzystaniu AGI do celów niezgodnych z wartościami ludzkimi.

Szkolenie kończy się w tym roku. AI będzie superpotężna

GPT5 - jak twierdzi Siqi Chen, ma zakończyć "szkolenie się" na ogromnym zestawie danych do końca tego roku. Według niego, istnieje spora szansa, że GPT5 osiągnie poziom AGI, co spowoduje, że będzie jeszcze potężniejsza. Nie oznacza to w żadnym wypadku samoświadomości: dla zobrazowania skali: jeżeli uważacie, że ChatGPT Was zaskakuje, to zwyczajnie wyobraźcie sobie, że jest lepszy o kilka rzędów wielkości i potrafi w pewien sposób oceniać swoje postępowanie i adaptować się do określonych warunków.

W swoich dywagacjach, Chen wyraził ponadto obawę związaną z nieprawidłowym, przeczącym interesom ludzkim wykorzystaniem AI. I tutaj jestem jak najbardziej z nim, ponadto nie razi mnie jakoś nawet list otwarty Elona Muska i reszty towarzystwa związanego z branżą AI, który proponuje wstrzymanie prac nad sztuczną inteligencją na rok i wypracowanie zasad tworzenia takich właśnie narzędzi. Dlaczego? Bo widać już teraz, jak bardzo zmienia się świat za sprawą AI, jak wiele możemy zoptymalizować i jak wiele stanowisk, prac możemy nią zastąpić. Aby nie doprowadzić do tego, że świat stanie na krawędzi rewolty: mamy dać sobie czas. Już pal licho to, że Elon był kiedyś współtwórcą OpenAI i pozbyto się go, bo chciał przejąć sobie tę firmę...

Co dalej?

Jeżeli do końca roku dostaniemy AGI, która stanie się tak potężna, jak mówi Chen... dopiero zaczną się zmiany. O ile ja jestem spokojny o to, co robię - tak ludzie wykonujący powtarzalne zadania przy komputerze, mogą zacząć się zastanawiać nad dalszymi perspektywami. Rozwój jest potrzebny, o ile dzieje się w sposób zrównoważony - tutaj tego absolutnie nie widzę. Galopujemy przed siebie i jest coraz dziwniej.

Pytanie, czy jest lepiej?

Hej, jesteśmy na Google News - Obserwuj to, co ważne w techu