Sztuczna inteligencja rozwija się niezwykle szybko i gwałtownie — i zaczęło to przerażać nawet OpenAI.
Twórcy ChatGPT tworzą grupę, która ma nadzorować AI. Robi się niebezpiecznie?
Sztuczna inteligencja szturmem podbija nasze życie
Sztuczna inteligencja, czyli jeszcze jakiś czas temu melodia przyszłości i temat do spekulacji, a dziś… nieodłączna część naszego życia. AI jest coraz większą częścią naszej codzienności, czy nam się to podoba, czy też nie. DALL-E, Midjourney, ChatGPT, Bing AI, Google Bard, zmiany w programach Adobe, Windowsie 11 czy Google Workspace — a to zaledwie mała część wszystkiego, co się dzieje.
Raczej nikt nie spodziewał się tak zaawansowanego rozwoju sztucznej inteligencji i chociaż jest sporo powodów do ekscytacji, to mamy też o co się obawiać. Potwierdza to między innymi Geoffrey Hinton, jeden z trzech informatyków, który jest przez wielu nazywany „ojcem chrzestnym sztucznej inteligencji”. Hinton całe swoje życie poświęcił osiągom w tej dziedzinie, co zostało zwieńczone w 2018 roku, kiedy przyznano mu nagrodę Turinga za fundamentalną pracę, która doprowadziła do obecnego rozwoju AI.
Jak niedawno mogliśmy dowiedzieć się z wywiadu z 75-latkiem przeprowadzonym przez The New York Times, informatyk po dużej części żałuje pracy, której poświęcił całe swoje życie — a niedawno nawet odszedł z Google po to, by móc otwarcie mówić o zagrożeniach związanych z tą technologią. Hinton zaznacza, że sztuczna inteligencja jest niezwykle potężnym narzędziem i niezdrowa konkurencja na tym rynku jest zwyczajnie niebezpieczna. Dodatkowo, były pracownik Google bierze również pod uwagę najbardziej przerażający dla wielu scenariusz — czyli że w dłuższej perspektywie sztuczna inteligencja wyeliminuje rutynowe zadania i nawet całą ludzkość, gdy SI będzie już zdolne do pisania i uruchamiania własnych kodów. W rozmowie z The New York Times Hinton przyznał:
Pomysł, że to coś może stać się mądrzejsze od ludzi – kilka osób w to wierzyło. Ale większość ludzi uważała, że to daleko. Ja myślałem, że to daleko. Myślałem, że to kwestia 30, może i 50 lat, a nawet dłużej. Oczywiście już tak nie myślę.
Nie tylko Hinton. Nawet OpenAI zaczęło się obawiać
Jak się okazuje, pomimo panującego dość pozytywnego podejścia do tematu rozwoju AI, jest o co się obawiać. OpenAI, czyli firma, która jest bez dwóch zdań największym wygranym rozwoju sztucznej inteligencji (w końcu to właśnie OpenAI stworzyło DALL-E czy ChatGPT, a także uzyskało miliardy dolarów finansowania ze strony Microsoftu), zaczęła mieć w tej sprawie pewne obawy. A jeśli dochodzi do sytuacji, w której ludzie odpowiedzialni za topowe rozwiązania oparte na AI zaczynają mieć obawy w tym temacie, to warto się nad tym solidnie zastanowić.
Sam Altman, dyrektor generalny OpenAI, przyznał, że ma pewne obawy w kwestii potencjalnego wpływu zaawansowanych systemów sztucznej inteligencji na społeczeństwo. Altman jest przestraszony na tyle, że zdecydował się na założenie nowego oddziału o nazwie Superalignment, którego zadaniem jest zapewnienie, że sztuczna inteligencja nie spowoduje chaosu i… nie przejmie świata.
Superalignment, czyli nasi obrońcy przed dystopią
W ogłoszeniu OpenAI firma informuje, że „superinteligencja będzie najbardziej wpływową technologią, jaką ludzkość kiedykolwiek wynalazła, i może pomóc nam rozwiązać wiele najważniejszych problemów na świecie, ale ogromna potęga superinteligencji może być również bardzo niebezpieczna i może doprowadzić do osłabienia ludzkości, a nawet do jej wyginięcia”.
OpenAI do tego przyznaje, że chociaż superinteligentna sztuczna inteligencja może wydawać się czymś odległym, to firma wierzy, że można ją opracować do 2030 roku. Firma Altmana przyznaje jednak, że w chwili obecnej nie istnieje żaden system do sterowania lub kontrolowania potencjalnie superinteligentnej sztucznej inteligencji i zapobiegania temu, żeby odwróciła się przeciwko ludzkości. Czy mamy powody do obaw?
Źródło: OpenAI
Stock Image from Depositphotos
Hej, jesteśmy na Google News - Obserwuj to, co ważne w techu