Felietony

Musk chce chronić Świat przed zniszczeniem przez Sztuczną Inteligencję. OpenAI udostępnia pierwsze kody

Ewa Cieślak

Fanka nowych technologii, zachowująca jednak do ni...

Reklama

To się już robi powtarzalne. Musk znowu ratuje Świat. Najpierw zaczął produkować elektryczne samochody, żeby ograniczyć negatywny wpływ komunikacji na atmosferę, potem postanowił udoskonalić rakiety kosmiczne, żeby wysłać ludzkość na Marsa i ocalić ją od wyginięcia, w międzyczasie jeszcze zaczął wytwarzać panele słoneczne, a teraz… Teraz chce chronić Świat przed potencjalnie szkodliwymi skutkami rozwoju sztucznej inteligencji.

Można mówić o tym z ironią, bo brzmi to wszystko jak szaleństwo kogoś, kto za dużo się fantastyki naoglądał. Ale Elon kolejne swoje wizje przekuwa w konkrety i okazuje się, że cele, które sobie stawia są potencjalnie do osiągnięcia. Potwierdzają to wyniki jego spółek – jest miliarderem, a inwestorzy nie wspierają szaleńców milionami dolarów. Musk ma wizję i zazwyczaj ma rację, ale co do OpenAI to przyznaję - mam wątpliwości.

Reklama

Dzieje się. OpenAI zaczyna właśnie spełniać swoją misję.

W grudniu ubiegłego roku, Musk razem z Samem Altmanem i kilkoma innymi fundatorami ze świata technologii i nauki za łączną kwotę 1 mld USD założyli OpenAI, start-up, który nie ma działać dla zysku, ale ma wypracować najlepsze możliwe rozwiązania w dziedzinie sztucznej inteligencji i uczenia maszynowego. Nie byłoby w tym nic zaskakującego - bo zarówno Tesla Motors jak i SpaceX czerpią z tych technologii pełnymi garściami - gdyby nie fakt, że opracowane kody i całe oprogramowanie mają być udostępnione każdemu, kto będzie chciał z nich skorzystać.

To właśnie zaczyna się wydarzać. Pierwszy efekt prac OpenAI, toolkit do budowania systemów sztucznej inteligencji opartej na Reinforcement Learning (Uczeniu przez Wzmacnianie, ale polskie tłumaczenie, nie jest moim zdaniem zbyt zgrabne, choć poprawne) zostały właśnie udostępnione. W oparciu o tą właśnie technologię stworzono między innymi komputer, który pokonał mistrza Świata w Go. Ta wygrana to była symboliczna zapora, za którą nie ma już wątpliwości, że maszyna może już dziś przeprowadzać procesy uczenia się równie skomplikowane i skuteczne, jak człowiek. Nie ma już też wątpliwości, że w perspektywie kilkudziesięciu lat może go w tym mocno wyprzedzić.

Najpierw ostrzegał przed Sztuczną Inteligencją, a teraz będzie ją upowszechniał. O co tu chodzi?

Elon Musk jest znany ze swoich obaw, co do wpływu, jaki SI może wywrzeć na ludzkość. W ubiegłym roku wyraził głębokie zaniepokojenie jej szybkim rozwojem, a zapytany, co może najbardziej zagrozić ludziom w najbliższym czasie odpowiedział „właśnie to”. Na pierwszy rzut oka działalność OpenAI wygląda więc jak szaleństwo, ale wg Muska – jest formą ochrony. Zespół OpenAI to najtęższe mózgi technologii i nauki, ludzie zaangażowani wcześniej w podobne projekty prowadzone m.in. w Google. Wszyscy oni tak samo postrzegają ten temat: zatrzymanie kodów i zaawansowanych technologii na wyłączność kilku firm stanowi zagrożenie większe, bo umożliwia ich monopolizację. Antidotum na nadużycia i zastosowania SI do wrogich człowiekowi celów ma być powszechny dostęp. Założeniem jest, że większość osób ma dobre intencje, a liczne zastosowania SI powstrzymają te “wrogie”. Żaden z założycieli nie uściśla jednak, co dokładnie ma pod tym pojęciem na myśli.

Dzisiaj trudno przewidzieć, kiedy maszyny osiągną umiejętności i inteligencję wyższą niż ludzka. Mówi się o roku 2050, może 2040. Etycy biznesu i technologii, tęgie mózgi nauki i wybrani twórcy SI apelują o regulację prawną tych zagadnień, ale na razie to się nie wydarza. Nowy start-up Muska ma wypełniać tę lukę. Oprócz tworzenia nowych rozwiązań ma być również instytucją badawczą i przyglądającą się postępowi w tej dziedzinie, nastawioną na działanie optymalizujące rozwój SI na rzecz człowieka i ostrzegającą przed zagrożeniami. I to akurat ma głęboki sens.

Sztuczna inteligencja może być zagrożeniem

Działalność OpenAI budzi jednak wątpliwości. Szeroki dostęp do kodów może przyspieszyć rozwój Sztucznej Inteligencji i sprawić, że to, co wywołuje największe obawy wydarzy się potencjalnie wcześniej, niż dziś przewidujemy. Czy szereg pozytywnych zastosowań uchroni gospodarki przed eliminacją z nich człowieka? Rozwój SI nie skończy się na maszynach przeznaczonych do jednego celu, jak prowadzenie autonomicznego samochodu, wygrywanie w Go, rozpoznawanie mowy czy kotków na zdjęciach. W perspektywie kilkudziesięciu lat będziemy mieć do czynienia z GSI (Generalna Sztuczna Inteligencja, od AGI – Artificial General Intelligence, wybaczcie tłumaczenie, sama widzę, że jest mocno niedoskonałe), zdolnej do wykonywania wielu zadań o stopniu złożoności zbyt wysokiej dla człowieka. Dziś maszyny SI mogą zastąpić kierowców samochodów i autobusów, analityków danych w dziedzinie badań rynku, księgowości czy analiz finansowych. W dalszej perspektywie GSI będą zarządzać systemami transportowymi, całymi spółkami, a nawet gospodarkami.

Mogą uznać człowieka – zresztą całkiem słusznie - za element ekosystemu, który jest niedoskonały, posiada liczne błędy i ograniczenia, niewystarczająco szybko dostosowuje się do zachodzących zmian, a przy tym konsumuje duże ilości naturalnych (i nie tylko) zasobów. Słowem – jest zbędny i jako taki, powinien zostać wyeliminowany. Technologia, optymalizacja i chłodna kalkulacja. Nic więcej. Czy otwarty dostęp do wiedzy, która za tymi maszynami stoi sprawi, że do tej sytuacji nie dojdzie, czy też – że wydarzy się ona nawet wcześniej? Mam poważne wątpliwości i dzisiaj brak jest wystarczająco mocnych argumentów, żeby obronić którąkolwiek z tych tez.

Chroni Świat czy mu szkodzi?

Kiedy czytam kolejne doniesienia z dziedziny Sztucznej Inteligencji, to mam czasem wrażenie, że inżynierowie i programiści działają na niezłym haju. Jakby nie zdawali sobie sprawy albo lekceważyli potencjalnie szkodliwy wpływ tej technologii na ludzkość. Trochę jak dzieci, którym dano do zabawy papier, farby, ale też żyletki.

Reklama

Zastanawia też tempo, w jakim przestrogi przed „opanowaniem Świata przez maszyny” przeniosło się ze scenariuszy filmów sci-fi do nagłówków naukowych czasopism. A tezę tę popiera również między innymi Hawking.

Nie, nie wieszczę apokalipsy. Nie będzie wojny superinteligentnych robotów z człowiekiem. Możemy jednak „wylecieć z systemu”. Mam więc nadzieję, że Musk nie myli się również i tym razem, a działalność OpenAI i otwarte kody do SI ochronią człowieka, zamiast przyspieszyć zagrożenie. Stuprocentowego przekonania jednak nie mam.

Reklama

Foto Robot typing on a computer keyboard, Artificial general intelligence concept via Shutterstock.

Hej, jesteśmy na Google News - Obserwuj to, co ważne w techu

Reklama