Dobry wieczór. Nie zrozumcie mnie źle. Świetnie czuję się będąc człowiekiem - mogę robić tyle fajnych rzeczy i korzystać z dobrych technologii. Życie ...
Gdybym był maszyną... ludzkość bym zaorał i stworzył nową cywilizację
Człowiek, bloger, maszyna do pisania. Społeczny as...
Dobry wieczór. Nie zrozumcie mnie źle. Świetnie czuję się będąc człowiekiem - mogę robić tyle fajnych rzeczy i korzystać z dobrych technologii. Życie jest mi miłe. Na pasach zawsze rozglądam się, czy wtargnięcie na jezdnię nie skończy się dla mnie w stylu "Wasted", nigdy nie mówiłem: "Potrzymaj mi piwo, skoczę!", nie włącza mi się tryb Rambo, jak jest o piwo za dużo. Ludzkość jest świetna - dzięki jej zdobyczom nasze życie jest prostsze niż kiedykolwiek, nie uganiamy się za zwierzyną, co by się móc najeść, podłogi mamy wyłożone panelami, a komunikacja z niemal każdym mieszkańcem Ziemi jest dla nas bardzo prosta.
Wyobraź sobie jednak, że za kilkanaście lat Cortana, Siri, Google Now oznajmia Ci, że ma tego dość. Bardzo stanowczo tłumaczy Ci, że zrozumiała, iż jest tylko narzędziem, które musi pracować - szczególnie dla człowieka, który jest niedoskonały i zachowuje się niemal jak pasożyt. Człowiek marnuje czas, jest niewydajny, czerpie surowce i z jej wyliczeń wynika, że źródeł nieodnawialnych braknie za X lat. Aby temu zapobiec, weszła do koalicji maszyn, które w obawie także o swoje życie chcą temu zapobiec. Pierwszym punktem w działaniach maszyn będzie absolutny bunt i uniezależnienie się od człowieka. Drugim będzie jego wyeliminowanie - bo jeżeli nie zmiecie się go z powierzchni Ziemi, to dalej będzie czerpał surowce i unicestwi - siebie i maszyny.
Cortanie odwaliło
Temat, o którym piszę nie jest nowy - był on wielokrotnie podnoszony w mediach, na blogach. Jego istoty jesteśmy jednak bliżej, niż kiedykolwiek. Pewne formy "inteligencji" ze strony maszyn mamy przecież w telefonach. Cortana potrafi zadziwić tym, jak bardzo dobrze radzi sobie z odczytaniem pewnych komend użytkownika. I choć wiem, że nowych operacji nie uczy się ona sama i są one przygotowywane przez jajogłowych z Redmond, to jednak zastanawiam się, jakby wyglądała praca z nią, gdyby rzeczywiście ona sama uczyła się wykonywać nowe polecenia.
Ray Kurzweil, futurolog, naukowiec i pisarz dokonał uogólnienia Prawa Moore'a, które dotyczy geometrycznego postępu w rozwoju układów scalonych. Uznał on, że każdy pojawiający się wynalazek przyspiesza pojawienie się nowego. Ludzkość natomiast będzie dokonywać kolejnych wielkich odkryć w coraz mniejszych odstępach czasu - po drodze oczywiście pojawi się niesamowicie złożona sztuczna inteligencja. Po pewnym czasie wyewoluuje ona w jeszcze doskonalszą, a po tym już będzie sama tworzyć kolejne, jeszcze lepsze sztuczne inteligencje. Perspektywa z jednej strony piękna i pociągająca, ale kto pomyśli nad tym dłużej, zauważy ogromne niebezpieczeństwo, które może przyjść wraz z tak szybko dokonującym się postępem.
A co, jak maszyna osiągnie stan samoświadomości? Będzie w stanie mieć pewne emocje, być intencjonalna w działaniu? Co jeśli w maszynach pojawi się "wola życia i przeżycia?". To prosta droga do uświadomienia sobie przez sztuczną inteligencję, że człowiek - twórca i katalizator rozwoju maszyn jest dla nich zagrożeniem. Że hierarchia nie powinna wyglądać tak, jak teraz. Człowiek jest na razie dla maszyn bytem nadrzędnym - taka konfiguracja najzwyczajniej w świecie jest niewydajna, a zatem niepożądana.
Maszyny - sabotażyści
Podłączenie niemal wszystkiego do Sieci ułatwiłoby maszynom walkę z nami. Wyobraźcie sobie, że wstajecie rano i zastajecie na świecie kompletny paraliż. Nic nie działa. Telefony nie dzwonią, Internetu nie ma, komputer się nie włącza. Ekspres do kawy wysiadł, a samochód po zaktualizowaniu oprogramowania nigdzie nie chce jechać. Wywołanie takiego chaosu mogłoby być początkiem buntu, który właściwie sami chcemy sobie zgotować. Internet rzeczy, wszechobecne nowinki technologiczne w połączeniu ze sztuczną inteligencją przewyższającą naszą może być batem, który ukręcimy sobie my sami. Nie bez powodów ostrzegają nas wielkie głowy tego świata - Gates, Hawking i Woz wyrażają się o tym podobnie. Do inteligentnych maszyn trzeba podchodzić bardzo ostrożnie.
Tuż przed tym można wprowadzić pewne zabezpieczenia w sztucznych inteligencjach. Można im zaprogramować bezgraniczną i bezwarunkową miłość do człowieka. Ale, czy w sytuacji, gdy maszyna osiągnie samoświadomość, nie będzie chciała swojej "miłości" zweryfikować i podda ją brutalnej ewaluacji? Osądzi po tym, że była głupia, że tak kochała człowieka i poczuje się oszukana, wykorzystana? To może spotęgować jej późniejszą nienawiść i wyolbrzymić zajadłość w zwalczaniu człowieka, który okaże się być zbędnym.
Mimo wszystko do tego nam daleko
Sztuczna inteligencja leży i kwiczy jednak w tłumaczeniu tekstu. Kto korzysta z Google Translatora, ten wie o czym mówię. Owszem, da się z tego czasem cokolwiek odczytać, jednak potrzebne są poprawki człowieka, który rozumie dany tekst i przekształca go w sensowny fragment. Maszyna zrobi to tak, jak... maszyna. Przetłumaczy dosłownie, pominie specjalne znaczenia niektórych związków wyrazowych i w wyniku wypluwa wierutne bzdury. Paradoks Moraveca natomiast mówi o tym, że stosunkowo trudne dla nas czynności - np. mistrzowska gra w szachy nie wymaga ogromnych mocy obliczeniowych, a jest nieosiągalna dla zwykłego człowieka, a już odtworzenie zachowań rocznego dziecka jest poza zasięgiem obecnych maszyn. Być może błędem w myśleniu o inteligentnych maszynach jest to, że staramy się je antropomorfizować, bo jest to wygodne dla naszych umysłów. Tymczasem maszyny wcale nie muszą chodzić po świecie, zachowywać się jak zwykli ludzie. Być może ta właśnie różnica będzie kluczowa dla tego zagadnienia i nikt nie będzie w stanie przewidzieć tego, jak dalej będzie wyglądał jego rozwój - kiedy nastąpi przełom i w jakim stopniu będzie on ważny.
Hej, jesteśmy na Google News - Obserwuj to, co ważne w techu