Sztuczna Inteligencja

Czy naukowcy nie projektują właśnie końca ludzkości?

Krzysztof Kurdyła
Czy naukowcy nie projektują właśnie końca ludzkości?
10

Pojęcia sztuczna inteligencja i AI są dziś odmieniane przez wszystkie przypadki przez marketingowców firm technologicznych i są doskonałym lepem na inwestorów. U sporej grupy zwykłych ludzi wywołują gęsią skórkę, niektórzy boją się, że narzędzia z niej korzystające zabiorą im pracę, inni, wychowani na książkach s-f i filmach typu „Odyseja kosmiczna 2001”, „Terminator” czy „Matrix”, zastanawiają się, czy naukowcy nie projektują w ten sposób końca ludzkości. Pozostałych fascynują możliwości, jakie ta dziedzina otwiera przed ludzkością i z wypiekami na twarzy obserwują każdy kolejny film wrzucony przez Boston Dynamics czy prezentację asystenta Google, który rozmawia z ludzkim prowadzącym, jak równy z równym. Jaka jest prawda? Powinniśmy się bać tego trendu czy raczej mu kibicować?

Zanim jednak przejdziemy do rozważań, czy sztuczna inteligencja zmierza w kierunku przyjaznego Wall-E’ego czy mordującego wszystkich dookoła Terminatora, warto uporządkować kilka pojęć. Zacznijmy od tego, że prawdziwie sztucznej inteligencji, w ludzkim rozumieniu tego pojęcia, zawierającym także świadomość i uczucia nie ma.Nic też nie wskazuje na to, aby w najbliższym czasie miała się pojawić. Żaden superkomputer, żaden bot nie zdobył jeszcze uczciwie nagrody Loebnera będącej rozwinięciem testu Turinga, testu gdzie „sztuczna inteligencja” ma oszukać rozmawiającego z nią człowieka (a obecnie sędziów), że mają do czynienia z homo sapiens.

To, co dziś określamy jako AI to najczęściej programy stosujące nauczanie maszynowe oparte o wielowarstwowe sieci neuronowe. Rzeczywiście ciężko odmówić botom tego typu pewnego rodzaju inteligencji. Struktury wzorowane do pewnego stopnia na budowie ludzkiego mózgu pobierają masę danych wejściowych, na ich bazie wyciągają autonomiczne wnioski, uczą się nowych rozwiązań, a nawet tworzą własne „artystyczne” kreacje.

Jednocześnie jednak pod AI często podciąga się często zwykłą, opartą na algorytmach automatykę, choćby z racji efektownego charakteru pracy opartych o nią robotów. Tymczasem nawet bardzo zaawansowane algorytmy to nie jest coś, co zasługuj na tytułowe miano.

Sztuczna inteligencja, czyli jak to się zaczęło

Jeśli mielibyśmy wymienić tylko dwie osoby, które tchnęły „życie” w koncepcje sztucznej inteligencji (oczywiście było ich więcej), byłby to z pewnością jeden z największych geniuszy matematycznych XX w. Alan Turing. Człowiek, który stworzył podwaliny pod nowoczesną informatykę, skonceptualizował idee sztucznej inteligencji i jednocześni analizował ją nie tylko pod kątem naukowym, ale także moralnym i filozoficznym. Efektem tych ostatnich rozważań był wspomniany już wcześniej test. Drugą osobą byłby John McCarthy, który to pojęcie wymyślił.

Przez dłuższy czas AI przechodziła fazy wzlotów i upadków, kolejni naukowcy dokonujący jakiegoś mniejszego lub większego skoku na tym polu wieszczyli, że już za chwilę dokona się przełom, czy wręcz nadejdzie wielka osobliwość… po czym okazało się, że sprawa jest jednak bardziej skomplikowana i następowały lata posuchy. Wspomniana wielka osobliwość, to upraszczając dla celów tego artykułu, osiągnięcie przez komputery świadomości połączonej z inteligencją przewyższającą tę ludzką.

Niemniej jednak postęp cały czas miał miejsce, a wraz z rozwojem uczenia maszynowego w latach 90-tych zaczął nabierać szybszego tempa. Pierwszym symbolicznym krokiem, świadczącym, że ten temat trzeba traktować poważniej niż tylko naukową ciekawostkę, miał miejsce w 1997 r. kiedy komputer Deep Blue pokonał w szachy Gary’ego Kasparowa. Pomimo pewnych kontrowersji sukces był niezaprzeczalny, a kolejne superkomputery pobiły mistrzów nie tylko szachowych, ale także w Jeopardy! czy Go. Szczególnie to ostatnie zwycięstwo jest ciekawe, gdy komputer AlphaGo, pokonał mistrza tej gry 4:1, stosując do tego nietypową, wypracowaną przez siebie na podstawie analizy tysięcy rozgrywek, taktykę.

Sztuczna inteligencja towarzyszy nam niemal codziennie

Oczywiście w międzyczasie nauczanie maszynowe zaczęło mieć też praktyczne zastosowanie w naszym życiu. W internecie wspomagało pracę i zbieranie danych przez wyszukiwarki takie jak Google czy Yahoo, profilowanie każdego z nas o nią oparte rozwinęło  się na Facebooku i Twitterze. Narzędzia tego typu rozpoczęły też pracę w przemyśle, optymalizując przeróżne procesy produkcyjne, magazynowe itp.

Sztuczna inteligencja „zdobyła” też motoryzację i potrafi obecnie w pewnym zakresie kierować samochodami, jak choćby w przypadku Autopilota Tesli lub reagować w sytuacjach krytycznych znacznie szybciej od człowieka. Roboty medyczne dzięki nauczaniu maszynowemu diagnozują niektóre schorzenia z wyższą skuteczności niż lekarze, pomagają obsługiwać zakażonych pacjentów, a nawet, choć pod ludzką kontrolą, wykonują operacje. Inteligentne odkurzacze sprzątają za nas mieszkania, systemy Smart Home uczą się naszych przyzwyczajeń i w pewnym zakresie przejmują zarządzanie naszymi domami czy mieszkaniami.

Wraz ze zwiększającą się mocą procesorów mobilnych, AI trafiło też do smartfonów i urządzeń IoT, wspomagając robienie zdjęć, rozpoznawanie twarzy, analizę danych zdrowotnych czy umożliwia „pracę” cyfrowych asystentów. To dzięki nim mamy portretowe zdjęcia pomimo mikroskopijnych matryc aparatów czy możliwości zabaw z rzeczywistością rozszerzoną. Wspomniani asystenci, tacy jak Alexa potrafią zamówić pizzę, dokonać bardziej skomplikowanych zakupów czy pomóc nam wyszukiwać informacje.

Sztuczna inteligencja to coś więcej niż AI w smartfonie czy oprogramowaniu Tesli

Dziś najbardziej dynamiczny rozwój tej dziedziny obserwujemy w szeroko pojętej analityce danych osobistych. Każdy z nas słyszał określenie Big Data, pod którym to znaczeniem kryją się coraz bardziej rozrastające zbióry z danymi prawie całego naszego świata i życia.

Większość aspektów naszej działalności jest dziś kategoryzowana, grupowana, oceniana a my sami jesteśmy odpowiednio klasyfikowania jako najlepsi klienci na różne grupy towarów. Aby zdobyć te dane, otrzymujemy pozornie darmowe usługi i w efekcie płacimy za nie własną prywatnością, a wyniki analiz i nasze profile są sprzedawane klientom takich firma jak Google czy Facebook.

Na poziomie korporacyjnym usługi tego typu oferują wszyscy główni dostawcy usług chmurowych, czyli Amazon, Microsoft i Google. Swoją platformę tego typu buduje Oracle, IBM i wiele innych firm. Z sztuczną inteligencją możemy się spotkać, jeśli korzystamy z asystentów typu Amazon Alexa, Apple Siri czy Google oraz korzystając chatbotów na stronach różnych firm, czy instytucji.Z chatbotami możemy się też spotkać, przechodzą proces rekrutacji, szczególnie na ich wstępnych etapach.

Różne jest też podejście firm do tego zagadnienia, Amazon, Google czy Facebook to agresywni gracze, zbierający i sprzedający nasze dane pod każdym możliwym pozorem, Apple dla odmiany, stara się to jakoś pogodzić z potrzebą utrzymania prywatności. Skazuje się jednocześnie na wolniejszy rozwój, pracując na mniejszej ilości i mnie precyzyjnych danych, co szczególnie widać po Siri, które ma opinię dość głupiutkiej sztucznej inteligencji.

Sztuczna Inteligencja może pomóc zasiedlić Marsa

Elon Musk kontrowersyjny właściciel Tesli i SpaceX, uczestniczący i wydaje się prowadzący 3w wyścigu „Kto pierwszy na Marsie”, zapowiedział, że według niego jest spora szansa, że pierwszymi inteligentnymi istotami na Marsie będą roboty. Oczywiście nie poznaliśmy szczegółów, ale można się domyślić, że zanim na Czerwonej Planecie wyląduje załogowy statek, już wcześniej szereg robotów może prowadzić badania, przygotowywać elementy do budowy bazy. Umiejętność samodzielnego uczenia i adaptacji w takich, cały czas nie do końca poznanych warunkach może być bezcenna.

SI to wiele zagrożeń, które trzeba wyeliminować

Nie oznacza to, że nie mamy się, że rozwój sztucznej inteligencji nie niesie ze sobą zagrożeń, wręcz przeciwnie, sztuczna inteligencja ma niemało ciemnych zakamarków. Nauczanie maszynowe cały czas jest niedoskonałe i potrafi się zwyczajnie pogubić w zakresie swoich „obowiązków służbowych”. Samochodom Tesli zdarzały się wypadki z powodu błędnej interpretacji danych, autonomiczny samochód Ubera rozjechał kobietę, nie zaczynając nawet procedury hamowania. Słynny asystent Google, Duplex bezbłędny był tylko na prezentacji, a potem wymagał już nadzoru i dość często ludzkiej pomocy. Alexa z kolei kazała jednej z osób korzystających z tej usługi zabić się, dźgając się w serce

Z drugiej strony, tam gdzie AI pokazuje swoją siłę, też potrafi przestraszyć swoich twórców. Znany jest przypadek firmy Open AI i jej generatora tekstu GPT-2, który pisał tak dobre teksty, że naukowcy przestraszyli się konsekwencji i nie udostępnili go szerzej. Przestraszono się, że zalew doskonale napisanych fake newsów mógłby zalać internet na niespotykaną skalę. Dziś firma pracuje nad jego kolejną, znacznie uproszczoną wersją.

Mówiąc o zagrożeniach, nie można też pominąć faktu, o którym wspomniałem na początku tekstu. Naukowcy dalej nie wiedzą jak stworzone przez nich sieci neuronowe, w których odbywają się procesy „deep learning”, działają. W przypadku wystąpienia błędów, często nie są w stanie określić co je spowodowało. To oznacza, że automatyzowanie przy pomocy tego typu procesów na przykład sądownictwa, czy pozwolenie na samodzielną pracę w medycynie stoi pod dużym znakiem zapytania. Próbuje się to rozwiązać dodając drugą sztuczną inteligencję do nadzoru nad pierwszą, ale spięcie ze sobą dwu „strumieni” AI też potrafi dać zaskakujące wyniki. Alexy potrafią się zapętlić, a szczególnie wymowny przykładem jest przypadek, gdy dwa chatboty Facebooka rozmawiając ze sobą przestały być zrozumiałe, ponieważ stworzyły coś w stylu nowego języka.

Problemem jest też to, że sztuczna inteligencja uczy się, nie niuansując tak jak człowiek, co powoduje, że jej decyzje mogą na przykład odcinać całe grupy społeczne od jakiejś usługi. Przykładowo zdarzały się przypadki, że automaty przy wstępnych ocenach kredytowych gorzej traktowały kobiety niż mężczyzn. W Amazon, ich bot wspomagający działania HR odrzucił z góry wszystkich czarnoskórych kandydatów. Bardzo spektakularnym przykładem był twitterowy „żeński” chatbot Microsoftu Tay, który po paru godzinach obcowania z gatunkiem ludzkim stał się wulgarną rasistką. Dość szybko okrzyknięto to porażką AI, ale w gruncie rzeczy bardziej skompromitowali się chyba ludzie, którzy po prostu zarzucili chatbota takimi wzorcami.

Jednak największym zagrożeniem, jakie AI niesie w dzisiejszych czasach, jest wspomaganie inwigilacji przez państwo, co najlepiej pokazuje to, co dzieje się w Chinach. Tamtejsze firmy, oprócz sprzedaży danych swoich klientów innym firmom, zaopatrują w nie także instytucje rządowe. Od jakiegoś czasu Chiny testują Social Credit System, który na podstawie naszych działań w internecie, w pracy, na ulicy ustala obywatelską ocenę danego osobnika. Niska ocena oznacza kłopoty z kredytem, z pracą, a nawet podróżą środkami publicznymi.

Co więcej, w ostatnich dniach wypłynęła informacja, że WeChat, chiński odpowiednik Messengera wysyła na chińskie serwery dane także i zagranicznych użytkowników. Kto wie, czy wybierając się do Chin, już niedługo niektórzy nie zostaną zawróceni bez podania przyczyny. Ogólnie cały system przerażająco przypomina metodę wymyśloną przez Janusza Zajdla w „Paradyzji”, gdzie społeczeństwo było pod ciągłą obserwacją i otrzymywało oceny Stopnia Człowieczeństwa, od których zależały ilość jedzenia czy przydział zawodowy.

Z innymi problemami borykają się państwa z naszego kręgu kulturowego. Inteligentne boty Facebooka i Google wiedzą o nas czasem więcej, niż my sami. Nasz profile potrafią wskazać, na co jesteśmy podatni, czego będziemy potrzebować, co nas drażni. A to wszystko jest przedmiotem handlu nad którym nie panuje żadna legislacja. Europejskie próby z RODO, jak większość inicjatyw przeżartej nadmierną biurokracją Unii, skończyła się od praktycznej strony wprowadzeniem szeregu utrudnień dla zwykłych obywateli. Firmy mają co prawda obowiązki, które mogłyby pomóc, ale wszystko utopiono w nieprzejrzystych procedurach wśród których większość firma dalej działała bez przeszkód.

Większość z Was słyszała o firmie Cambridge Analitica, która wykorzystała takie, zdobyte częściowo nielegalnie dane, żeby wpłynąć na wynik wyborów prezydenckich w Stanach oraz referendum brexitowego. Bazując na danych Facebooka oraz szeregu prostych i zabawnych testów dokonano profilowania a następnie mikrotartgetowania reklam na niespotykaną wcześniej skalę. Tylko sztuczna inteligencja, z jej wydajnością przeliczeniową była w stanie zapanować na takim ogromem rozproszonych i nieprecyzyjnych w wielu miejscach danych. Jaki był ostateczny wpływ tych reklam, jest przedmiotem sporów, ale w sprzedaży te mechanizmy działają, dlaczego więc nie miałyby w polityce?

Niepokój budzić musi także zastosowanie sztucznej inteligencji w autonomicznych systemach wojskowych, w których samodzielnie i bez nadzoru człowieka mogłyby decydować o likwidacji żywych celów. Póki co nikt nie potwierdził, żeby tak się działo, wszystkie armie twierdzą, że w takich sytuacjach ostateczne zdanie należy do człowieka. Ale patrząc na niektóre błędne ataki wykonane przez drony, można mieć sporo wątpliwości, czy tego typu rozwiązanie nie są po cichu wdrażane lub testowane. Na tym tle powstał apel organizacji Future of Life, podpisany między innymi przez Elona Muska czy polską specjalistkę w tej dziedzinie, Aleksandrę Przegalińską, przeciwko rozwojowi autonomicznej broni.

Czy więc należy się bać? Błędy typu wypadki samochodowe w ogóle nie powinny nasprzerażać, nie dość że sami raczej nie grzeszymy „bezwypadkowością”, to przecież gdyby w przeszłości zatrzymywać się z takich powodów, dalej musielibyśmy tkwić w jaskiniach. Podobnie niemądre wydają się neoluddystyczne obawy o AI niszczącej pracę. Takie głosy pojawiają się przy każdym przełomie technologicznym, po czym okazuje się, że nowa dziedzina zabija faktycznie kilka ze starych profesji, ale na ich miejsce wyrasta znacznie więcej nowych zawodów. Podejście do prywatności jest tak naprawdę odbiciem naszych decyzji politycznych i osobistych, jeśli wybierzemy takich, którzy na nią nastają, sami będziemy sobie winni. Jeśli bezrefleksyjnie będziemy umieszczać nasze prywatne dane w każdym miejscu które nas o to poprosi lub sprowokuje, nie pomogą nam żadne regulacje. AI faktycznie będzie wtedy groźnym narzędziem, ale ciężko będzie oskarżyć ją o jakąś sprawczość.

Postępu nie da się i nie powinno zatrzymać. Nawet jeśli zakazalibyśmy badań nad AI, szereg innych państw i tak pójdzie tą drogą i może uzyskać przewagę, której wtedy my nie damy rady zbalansować. Wydaje się też, że scenariusz „Terminatora” nam w najbliższym czasie nie grozi, gdyż mimo wszystko większość procesów jest ciągle dość prymitywna, wymaga wielu ręcznych korekt a o czymś takim jak nadanie urządzeniom świadomości, nikt nawet nie myśli. Nie mamy bladego pojęcia jak ten mechanizm działa w kontekście ludzkiego mózgu. Zresztą, gdyby taka świadoma, ale i maszynowo metodyczna sztuczna inteligencja pojawiła się w Polsce, to zapewne po paru godzinach analizy danych chciałaby rzucić wszystko i pojechać w Bieszczady, a nie dokonywać przewrotu. Natomiast zupełnie serio pisząc, na pewno ten rozwój musimy uważnie obserwować, wielka osobliwość, jeśli w ogóle jest możliwa, może wykształcić się sama. Powinniśmy mieć wtedy rozwiązania technologiczne aby nad nią zapanować, ale też przepracowane założenia moralne, jak taki byt traktować. Czy kiedyś słynne prawa robotyki Asimova przeniosą się z kart powieści do kodeksu cyfrowego życia? Jak myślicie?

Źródła: [1], [2], [3], [4], [5], [6],
"Sztuczna inteligencja. Nieludzka, Arcyludzka” Aleksandra Przegalińska, Paweł Oksanowicz,
„Sztuczna inteligencja. Co każdy powinien wiedzieć” Jerry Kaplan

Hej, jesteśmy na Google News - Obserwuj to, co ważne w techu