Zainspirowaliście mnie. Pod tekstami, które ostatnio ukazały się na AntyWeb i dotykały zagadnienia Sztucznej Inteligencji pojawiło się wiele ciekawych komentarzy. Część z nich pokazała, że w tym temacie jest ciągle duża dawka niezrozumienia, pokutuje parę mitów, trochę przekonań jak z filmów sci-fi i trochę serwowanych na siłę poglądów, mających zaprzeczyć temu, że sporo się w tej dziedzinie dzieje. A skoro….
Porozmawiajmy o SI – czyli fakty, mity, nieporozumienia i trochę pobożnych życzeń
Fanka nowych technologii, zachowująca jednak do ni...
…nawet Google tworzy killer-switch’a to wiedz, że coś się dzieje…
CEO Deep Mind, spółki-córki Google Inc Mustafa Suleyman, jest w branży szanowany i znany nie tylko od strony biznesowej, ale też analitycznej i naukowej. Kiedykolwiek wypowiadał się publicznie uspokajał i zapewniał, że systemy które tworzą będą całkowicie kontrolowalne przez człowieka i nie ma powodów do niepokoju. Nie był zresztą jedyny. Naukowcy i inżynierowie skupieni wokół zagadnienia od dawna podzieleni są na dwa obozy. Jeden z nich twierdzi, że zagrożenie ze strony SI jest bardzo poważne i wręcz może to być ostatni wynalazek ludzkości. Drugi – że to zwykłe brednie, płynące z niezrozumienia i mitologizacji tej dziedziny. Suleyman znajdował się w tej drugiej grupie, chociaż w swoich wypowiedziach przyjmował raczej ton uspokajającego mentora. Generalnie jednak Google trywializował wypowiedzi straszące poważnymi konsekwencjami i robił swoje.
Coś się jednak zmieniło
Gigant stwierdził ostatnio, że musimy być pewni, że SI nie obróci się przeciwko człowiekowi i ogłosiło, że zaczyna prace nad „killer-switch”, którego będzie można użyć, żeby uniemożliwić SI wyrządzenie szkód człowiekowi. Temat okazał się być medialny. Rzuciły się na niego portale technologiczne i naukowe. W swoim opracowaniu na ten temat Google na określenie inteligentnych systemów używa słowa „agent”. O zgrozo, w poważnym, jakby się mogło wydawać, serwisie znalazłam taki oto kwiatek:
Nic więc dziwnego, że skoro aspirujące do poważnych portale publikują coś takiego, to skala dotyczącego SI niezrozumienia rośnie.
Pod tekstem Maćka na temat „wielkiego guzika Google” czytamy:
I tu znajdujemy mit numer 1. Świadoma Sztuczna Inteligencja
SI nie jest i nie będzie świadoma. Jakkolwiek inteligentna by nie była, będzie maszyną. Będzie uczyć się z danych, odkrywać zależności, podejmować decyzje. Ale nie będzie zdawać sobie sprawy ze swojego istnienia. Podobnie z „wolną wolą”. SI będzie mieć cele. OSI będzie umiała się samodoskonalić i poprawiać swój kod. Ale nie będzie niczego chcieć. Pragnienie jest emocją, a SI będzie mieć tyle emocji co Twój, Czytelniku, odkurzacz. Owszem, może zostać stworzona jako symulacja człowieka, umiejąca się z nim komunikować i wypełniać polecenia. Ale to wciąż będzie mechanizm. Świadomość i inteligencja to dwie odrębne kwestie. Komunikatywność to efekt algorytmów i uczenia maszynowego. Nasza nawigacja samochodowa, SIRI czy Alexa też się z nami komunikują, ale w ich „mózgu” nie ma myśli ani odczuć.
Mit numer 2. Nieświadomość jako przeszkoda w osiągnieciu inteligencji człowieka
To, że SI nie będzie świadoma nie przeszkodzi jej wcale wywrzeć dużego wpływu na Świat i ludzi. Po pierwsze właśnie do tego dąży ta branża tworząc SI i pracując nad OSI. Po drugie zaś inteligencja porównywalna z ludzką (a w dalszej perspektywie dużo wyższa), połączona z ogromną mocą obliczeniową, umiejętnością samodoskonalenia i bardzo niskimi kosztami utrzymania spowodują, że będzie można osiągnąć każdy postawiony takiej maszynie cel w czasie dużo krótszym, niż udałoby się to człowiekowi. To popchnie do przodu naukę, technologię, wpłynie na gospodarki i prawdopodobnie na naszą codzienność. Dzieje się to już dziś, a to dopiero Słaba SI. Taki na przykład IBM Watson został wykorzystany do diagnozowania raka (a to tylko jedno z wielu zastosowań tej inteligentnej platformy) – okazał się mieć wyniki lepsze, niż lekarze. Oczywiście nie zdaje sobie sprawy ze swojego istnienia ani nie ma do niego emocjonalnego stosunku. Nie przeszkodzi mu to jednak postawić trafnej diagnozy i być może – uratować komuś życie. A możliwości Ogólnej SI i oczekiwania wobec niej będą dużo większe.
Pobożne życzenie numer 1. Po co się spieszyć?
Bardzo ciekawe są Wasze komentarze odnoszące się do zagadnienia w stylu: “teraz nie ma o czym gadać, wrócimy do tego później”. Powtarzają się zresztą całkiem często. Trochę mi się to kojarzy z Kazimierą Szczuką, która niedawno popełniła podobną wypowiedź: „Jak się okaże, że większość z nich jest terrorystami, to wtedy będziemy się martwić”. A skoro jesteśmy przy cytatach, to adekwatnie potraktował ten temat Stuart Russell: „Jeśli przerastająca nas inteligencją pozaziemska cywilizacja wysłałaby nam wiadomość: ‘Za kilkadziesiąt lat zamierzamy was odwiedzić’ to czy odpowiedzielibyśmy: ‘OK, zadzwońcie, jak już będziecie, zostawimy Wam zapalone światło’? Pewnie nie – a to jest mniej więcej to, co teraz wydarza się w dziedzinie SI. Bez względu na to, czy okaże się ona najlepszą czy najgorszą rzeczą w historii ludzkości, pogłębiona analiza tych zagadnień byłaby wskazana”. Zakładanie, że OSI będzie szerzyć samo dobro, a jak coś pójdzie nie tak to będzie chwila, żeby się zastanowić i w prosty i skuteczny sposób przywołać do porządku, wydaje się mocno naiwne.
Zanim będzie za późno
Bardzo dobrze, że branża SI myśli o tym teraz. Dziś, zanim jeszcze kroki milowe zostaną postawione można wpłynąć na kształt, jaki przyjmie ostatecznie OSI i poprzez to – na bieg wydarzeń. Kiedy Sztuczna Inteligencja osiągnie poziom inteligencji człowieka i zacznie rozwijać się bez zewnętrznego wsparcia zwyczajnie będzie już za późno. Kontrolę na Światem sprawuje dziś gatunek ludzki nie dlatego, że jest najsilniejszy czy najszybszy (bo nie jest), ale dlatego, że jest najbardziej inteligentny. Jak chcemy utrzymać kontrolę nad tworem, który będzie od człowieka inteligentniejszy? To trochę tak, jak gdyby pies chciał kierować człowiekiem. OK, kotom się udaje. Ale to też tylko w niektórych przypadkach :).
Dziś SI tworzy się z myślą o konkretnym zastosowaniu. Trudno sobie wyobrazić, aby Siri, ROSS, Alexa albo Watson mogły jakkolwiek zagrozić człowiekowi, bo nie wyjdą poza swoje przeznaczenie i środowisko. OSI jako dużo „mocniejsza” nie będzie wcześniej programowana na konkretny cel, ale zostanie stworzona tak, aby mogła rozwiązywać zagadnienia z różnych dziedzin, pozyskiwać do tego zasoby i podejmować decyzje. A to już jest niebezpieczne. Dlatego z zarzutem:
zgadzam się tylko częściowo. SI nie będzie mieć woli, żeby czegokolwiek „chcieć”. Będzie osiągać postawione przed nią cele na podstawie danych, z których będzie się uczyć i opracowywać skuteczne metody dojścia. Co do tych urojeń prześladowczych, to byłabym jednak ostrożna. Widzę to jako popularne pobożne życzenie nr 2. Jak to trafnie powiedział Yudkowsky (i to jest cytat, który jest chyba najsłynniejszy w świecie SI, natkniecie się na niego jeszcze nieraz): „SI nie kocha Cię ani nie nienawidzi. Ty po prostu składasz się z atomów, które może wykorzystać, żeby osiągnąć swój cel” Podejrzenie, że działania SI mogą wymknąć się spod kontroli nie są domeną podrzędnych autorów i scenarzystów dzieł klasy C z dziedziny sci-fi. Przestrzega przed tym między innymi znany i szanowany Nick Bostrom, powstała na ten temat poważna – i przekonująca – literatura naukowa. Musk, Gates i Hawking również nie sprawiają wrażenia niekompetentnych. Jeśli jesteś deweloperem i masz zbudować osiedle na działce, która jest łąką, to to zrobisz. A że na tym terenie jest akurat gniazdo myszy? Trudno, mają pecha. Działanie maszyny nastawione na osiągnięcie celu bez ograniczeń, które zabezpieczyłyby człowieka jest prostą drogą do katastrofy. Bardzo dobrze pokazuje to eksperyment logiczny, zaproponowany przez wspomnianego już Bostroma i znany jako...
Paradoks spinaczy do papieru
Wyobraźmy sobie, że wyznaczamy OSI cel – zgromadzenie jak największej ilości spinaczy, wszelkimi możliwymi metodami. Na początku będzie to pewnie zakup wszystkich możliwych, już istniejących spinaczy, postawienie fabryki, później może przetopienie wszystkiego co możliwe na spinacze, a potem? Eliminacja człowieka, który zawsze może odciąć źródło zasilania albo w inny sposób ingerować w działanie OSI, a poza tym – składa się z atomów, które można przerobić na spinacze…
Czy to będzie działanie wrogie człowiekowi? Z naszego punktu widzenia – jak najbardziej. Ale maszyna wykona po prostu swoje zadanie. Jeśli nie będzie mieć wbudowanych ograniczeń, uniemożliwiających jej działania absurdalne i skierowane przeciwko człowiekowi – nie uwzględni ich przy podejmowaniu kolejnych decyzji. Oczywiście, to tylko bardzo uproszczony przykład. To może być cokolwiek, na przykład oczyszczenie Internetu z wirusów, trojanów i całego złośliwego oprogramowania. Co jest najskuteczniejszym, ostatecznym środkiem? Eliminacja ludzi, w końcu to oni są twórcami…
Odpowiedzią wydaje się wkomponowanie w kod OSI „wartości” człowieka. Problem polega jednak na tym, żeby dobrze przetłumaczyć je na język maszynowy. Jeśli na przykład OSI będzie miało przy okazji swoich działań zapewnić człowiekowi bezpieczeństwo, to nie ma pewności, czy nie skończy się to zesłaniem populacji do podziemnych bunkrów z regularnymi dostawami żywności. To, co komunikujemy nie zawsze jest tym, czego chcemy. A przekazać odczucia i wartości nieświadomej maszynie to karkołomne zadanie. Abstrahując już od tego, że te wartości też zmieniają się w czasie i sami między sobą nie bardzo potrafimy się porozumieć, jakie one miałyby być… Co ciekawe, inżynierowie i badacze zajmujące się SI zgadzają się, że takie zagrożenie potencjalnie istnieje. Różnią się tylko co do terminu, kiedy mogłoby ono zacząć być realne.
Nieporozumienie numer 1. Znów ten wyłącznik…
Wróćmy jeszcze na chwilę do Jurasa i jego komentarza do wpisu Maćka:
Wspomniany wyżej „killer-switch” to nie ma być wielki czerwony guzik, do którego wszystkie SI świata miałyby być „podłączone”. To fragment kodu, który powodowałby, że albo konkretna SI interpretowałaby określone działania jako nieoptymalne z punktu widzenia jej celu albo reagowałaby na sygnał ze strony człowieka w sytuacji krytycznej. Ten kod miałby być elementem konkretnej OSI. Blokada byłaby uruchamialna w określony przez producenta sposób, ale w założeniach nie mógłby jej wprowadzić każdy i zawsze. Nie można więc mówić o „podłączeniu” każdej SI na Świecie. To taki immobilizer – auto jednego producenta go ma, inne nie.
Przedstawiciele Deep Mind, zajmujący się tematem są enigmatyczni i wcale nie przesądzają, czy rozwiązanie o którym myślą, może okazać się skuteczne. Ostrożnie stwierdzają, że tam gdzie mowa o reinforcement learning – raczej tak, ale przy oprogramowaniu typu Sarsa, trzeba by dokonać w tym celu modyfikacji. Z pasjonującej lektury można wyciągnąć wniosek, że twórcy widzą to jako mechanizm, który można by uruchomić w wyjątkowych przypadkach. Na przykład z pilota (!).
Całość sprawia wrażenie, jakby nie chodziło wcale o OSI – a to ona mogłaby ewentualnie wywołać szkody – ale o Słabą SI, jaką mamy dziś. Z tego punktu widzenia całość zwyczajnie rozczarowuje, a pytanie Maćka, czy to „odejmuje inteligencji” bardzo łagodne. Zapytałabym raczej: skoro będziemy mieć do czynienia mechanizmem który sam się uczy i jest w stanie modyfikować swój kod, to czy autorzy naprawdę wierzą w to, że taką OSI będzie można wyłączyć z pilota, a ona nie wprowadzi zmian do swojego oprogramowania i w konsekwencji - działania? Bo to, co można przeczytać w tym dokumencie nie jest przekonujące, a sam mechanizm mocno prymitywny.
Wydaje się też, że cały ruch jest pozorowany. Założyciele DeepMind zgodzili się na przejęcie pod warunkiem, że Google ustanowi Radę Etyki ds. Sztucznej Inteligencji, która miałaby monitorować rozwój SI. Rada powstała. Podobno, bo jej skład jest nieznany. Suleyman opowiada się za ujawnieniem, ale Google deklaruje, że „woli działać niezależnie”. Jednak rada do spraw etyki, która jest tajna, to… żadna rada. A Yampolskiy i Pistono w swojej pracy: „Nieetyczna Analiza - Jak stworzyć Sztuczną Inteligencję wrogą człowiekowi” brak jawnego otwartego nadzoru uznają za jeden z ważniejszych czynników, który sprzyja stworzeniu „Wrogiej SI”. Nie, nie sugeruję że Google nad taką pracuje. Nikt nie lubi, kiedy patrzy mu się na ręce, ale w tym przypadku byłoby to akurat ważne i cenne, a taka tajność sprzyja przekraczaniu delikatnych granic. Dlatego opracowanie dotyczące „killer-switch’a” może być zwyczajnie metodą na odwrócenie uwagi i pokazanie, że „jednak się staramy, więc proszę się nie martwić, będą Państwo zadowoleni”.
Nieporozumienie numer 2. SI jest na poziomie ameby
Piszecie:
Juras: „Sztuczna inteligencja zaczyna się pojawiać na większą skalę" - gdzie się niby pojawiła ta inteligencja sztuczna na jakąkolwiek skalę? Boty? Stary boty istniały już 15 lat temu i to całkiem sprawne. Od tamtej pory niewiele się zmieniło.
Można tego nie zauważać, jeśli nie jest się bliżej zainteresowanym tematem. Zwłaszcza, że Siri działa tak sobie, Tay została rasistką po upływie jednej doby, a cała interesująca reszta dzieje się głównie za oceanem i nie mówi się o niej w dzienniku telewizyjnym.
Niemniej ostatnio sporo się zmieniło. W latach 80-tych mieliśmy do czynienia z „zimą SI” („winter AI”). Balon oczekiwań wobec SI pękł, kiedy okazało się, że rezultaty nie były spektakularne, a dziedzina wymaga jeszcze dużo żmudnej, programistycznej pracy. Sztuczna Inteligencja stała się na lata czysto akademickim zagadnieniem. Rozczarowanie było na tyle duże, że dziś niektórzy inżynierowie dziwią się, że powrócono do tej nazwy, bo jeszcze niedawno uważano ją za skompromitowaną. Jednak w 1997 DeepBlue wygrał w szachy z Kasparowem. W porównaniu do dzisiejszej SI wydaje się dziś prymitywny. Wkrótce potem okazało się, że jest pole do zastosowań w biznesie i pojawiły się pieniądze. W 2010 SI była już lepsza niż w człowiek w handlu na giełdzie. W 2011 Watson pokonał człowieka w znanym amerykańskim teleturnieju, pozostawiając współgraczy daleko w tyle. W 2013 ten sam Watson zaczął być stosowany do diagnozowania raka piersi i miał rezultaty lepsze niż lekarze (90% trafności wobec 75%).
Dziś SI jest wszędzie i nawet nie zdajemy sobie z tego często sprawy. Nawigacja samochodowa, GoogleNow, głosowe wybieranie numeru telefonu podczas jazdy samochodem to banały, do których zdążyliśmy się już przyzwyczaić i być może z tego wynika to bagatelizujące podejście. Ale są też dużo bardziej inteligentne rozwiązania. W dziedzinie nauki na przykład SI przeprowadza doświadczenia, które zespołom naukowców zajmowały długie miesiące. Tutaj na przykład SI w godzinę przeprowadziła i ulepszyła eksperyment, który w 2001 roku przyniósł trzem fizykom (Eric Cornell, Wolfgang Ketterle i Carl Wieman) Nobla. Chwilę później AI udowodniła twierdzenie dotyczące trójek pitagorejskich. Zajęło jej to 2 dni i (bagatela!) 200 TB danych. Z kolei inna SI w 3 dni rozwikłała zagadkę, nad którą biolodzy głowią się od dziesięcioleci.
Dzięki SI mamy autonomiczne samochody. W Singapurze na przykład już jeżdżą, a w USA i Europie torują sobie drogę do publicznego użytkowania. Pojawiły się autonomiczne busiki do zastosowań miejskich. Pierwszy, testowy konwój autonomicznych ciężarówek przejechał przez Europę. Człowiek był tam tylko na potrzeby przejęcia kontroli, gdyby coś miało pójść nie tak. Nie było takiej potrzeby.
SI znajduje mnóstwo zastosowań w biznesie. Od kilku lat na światowych giełdach obok ludzi handlują inteligentne maszyny. Szacuje się, że stanowią 10% maklerów działających na Wall Street. Dwa lata temu SI została wybrana do zarządu firmy venture capital. Ma prawo głosu i wpływ na decyzje finansowe i inwestycyjne spółki.
Przetwarzanie dużych ilości danych to również dla SI idealne zadanie. Dlatego jest stosowana wszędzie tam, gdzie w grę wchodzi Big Data. A tylko ostatnio Cisco zaaplikowało Watsona do analityki danych spływających z autonomicznych urządzeń. To popycha do przodu Internet Rzeczy, bo pozwala optymalizować procesy.
Mamy sztucznie inteligentnych prawników i diagnostów, a ostatnio robot okazał się być zręczniejszym chirurgiem niż człowiek. OK, chodziło raptem o zszycie świńskich tkanek, ale stąd do operacji na ludzkim ciele wcale nie jest już daleko. Technologia już jest.
SI ściga kłusowników, ułatwia policji schwytanie uciekającego przestępcy, a za chwilę będzie zwalczać przestępstwa w sieci.
Znajduje zastosowanie w wojsku: w dronach atakujących z powietrza, zautomatyzowanej broni, jak i robotach mogących walczyć w terenie (na razie jeszcze nie stosowanych).
Zaczyna też malować obrazy, pisać scenariusze do filmów i tworzyć muzykę. Wprawdzie mało kogo one teraz zachwycają, ale to pokazuje, że SI wkracza w sfery dla niej najtrudniejsze. Analiza finansowa, prognozowanie, rozpoznawanie trendów, czytanie zdjęć USG, wyciąganie wniosków z reguł prawa i wyroków, słowem wszystko, co bazuje na schematach jest dla szybkiego komputera dużo łatwiejsze niż to, co dla nas jest intuicyjne, jak rozpoznawanie obrazów czy dźwięków, prowadzenie sensownej rozmowy. Twórczość była do tej pory poza zakresem SI, wydaje się najbardziej „ludzka”, bo wymaga wyobraźni, intuicji, życia wewnętrznego. Inteligentne maszyny wkroczyły jednak i w tę sferę.
O Viv czy Alexie też już na pewno słyszeliście.
To wszystko wydarzyło w ciągu ostatnich dziesięciu lat. To, że na co dzień tego nie widzimy pokazuje tylko, jak dobrze SI wkomponowała się w nasz Świat.
Nieporozumienie numer 3. „To tylko algorytmy”
Comandeer: „(…)Poza tym to OSI musi stworzyć człowiek. A on nie przewidzi 100 kroków do przodu, by OSI mogło je zawsze dobrze przewidzieć.(…)”
Każda maszyna, również ta najbardziej inteligentna, zbudowana jest na algorytmach. OSI opierać się będzie na metodach uczenia maszynowego, a te implementuje się przecież przez język programowania. Algorytmy są i będą. To że SI się na nich opiera, nie odbiera jej inteligencji. Jednocześnie OSI nie będzie wcześniej programowane na wszystkie „kroki do przodu”. Jeszcze 20-30 lat temu programowano „siłowo” na zasadzie algorytmów na każdy możliwy do przewidzenia impuls i wynikające z niego kolejne scenariusze. Tak działał Deep Blue, który w 1997 wygrał w szachy z Mistrzem Świata, Kasparowem. Dziś robi się to inaczej. Maszyna jest zasilana dużą ilością informacji, z których sama wnioskuje, wyszukuje zależności i buduje strategie. AlphaGo, który pokonał Lee Sedola kilka miesięcy temu to już efekt tej właśnie technologii. Go jest dużo bardziej skomplikowaną grą. Przewidzenie wszystkich ruchów, oraz strategii nie byłoby możliwe. AlphaGo został „nakarmiony” 30 milionami ludzkich ruchów w go, z których sam się uczył, a to i tak nie były wszystkie możliwe kombinacje. Podczas drugiej z pięciu z rozgrywek w zwycięskim meczu maszyna zetknęła się z zagraniem ze strony człowieka, którego nie znała wcześniej. Ponieważ jednak miała już umiejętność i znała zasady gry, wykonała ruch. Jak? Dokonała analizy, bazując na wiedzy, którą jej zaprogramowano. Wypracowała własne algorytmy i podjęła decyzję. Dlatego mówimy o inteligencji, a twierdzenie, że to „tylko” algorytmy aproksymujące jest bagatelizacją.
Piszecie też: „niewiadomo, czy OSI kiedykolwiek się wydarzy” oraz „to tylko gdybanie”.
Mówimy o przyszłości, więc nie ma tu żadnych pewników. To, o czym możemy i o czym jest sens dyskutować to prawdopodobieństwo określonych zdarzeń. Chyba najwięcej mogą o tym powiedzieć ludzie, którzy na co dzień zajmują się tą dziedziną. Przeprowadzono takie badanie na 170 osobach zaangażowanych w rozwój SI. Na pytanie, kiedy może powstać OSI 41% zapytanych odpowiedziało, że…. nigdy.
Kiedy jednak zapytano, kiedy może powstać Sztuczna Inteligencja na poziomie zbliżonym do człowieka, która będzie w stanie wykonać większość jego zadań przynajmniej tak samo dobrze najczęstszą odpowiedzią był rok 2040. Żaden z respondentów nie zadeklarował opcji „nigdy”.
Oczywiście, to też tylko przypuszczenia. Niemniej dzisiejsze twierdzenia zaprzeczające istnieniu albo rozwojowi SI wynikają albo z niedoinformowania albo ze strachu przed tym, jak bardzo może ona jeszcze zmienić nasz Świat.
Foto artificial intelligence, Cartoon silhouette of vehicles falling off a cliff from a broken raised highway via Shutterstock.
Hej, jesteśmy na Google News - Obserwuj to, co ważne w techu