sztuczna inteligencja
9

Nakarmili sztuczną inteligencję obrazkami z reddita, powstał cyfrowy psychopata

Co by się stało gdyby jako materiały do nauki dla sztucznej inteligencji wybierać tylko brutalne zdjęcia i obrazki? Czy tak powstałby program, który zdeklasowałby najgroźniejszych psychopatów w historii ludzkości? Naukowcy postanowili to sprawdzić, wynik eksperymentu przeraża.

Doskonale wiecie, że kibicuję zarówno robotyce, jak i sztucznej inteligencji. Moim zdaniem to przyszłość technologii, a co za tym idzie przyszłość ludzkości. Autonomiczne auta, roboty – czy nawet androidy, które póki co widzimy tylko w grach, takich jak Detroit: Become Human.

Myśląc o AI i inteligentnych robotach widzę przede wszystkim przyjazne maszyny, które człowiek stworzy po to, by ułatwić sobie życie, odciążyć ludzkość od najtrudniejszych i najbardziej niebezpiecznych czynności. Robot będzie przyjacielem, może też doradcą. Gdzieś z tyłu głowy jednak pojawiają się wizje znane z filmów pokroju Terminator czy Matrix. Tam inteligentne maszyny były do ludzi nastawione wrogo, chciały je wręcz unicestwić. W obrazach science-fiction powody tego typu działań były różne – AI uznawało ludzkość za największe zagrożenie dla niej samej albo po prostu chciało stłumić bunt w świecie, nad którym rządy przejęło. Powód był jednak ważny, bo to właśnie on stał się punktem zapalnym na gruncie konfliktu i to on zmienił rzeczywistość.

A co jeśli wrogą maszynę stworzy sam człowiek?

Nie wiem w zasadzie dlaczego o to pytam, bo to już się stało. Póki co w formie eksperymentu, ale przecież od czegoś wszystko zawsze się zaczyna. Algorytm o imieniu Norman nie miał łatwego startu. Nie wiem czy wszyscy kiedyś odwiedzili forum reddit, ale to miejsce, które skrywa nie tylko bardzo ciekawe informacje, ale i zawartość, z którą nie każdy powinien mieć styczność. Naukowcy odpowiedzialni za to konkretne AI postanowili wynaleźć tam najbardziej brutalne materiały i karmić nimi Normana.

sztuczna inteligencja

[/okladka] Mind Connection series. Composition of human profile, connections and numbers suitable as a backdrop for the projects on information technology, internet and artificial intelligence

Efekt? Przerażający

Kiedy standardowa sztuczna inteligencja widzi obrazek przedstawiający zbliżenie na weselny tort stojący na stole, Norman widzi człowieka zabitego przez przekraczającego prędkość kierowcę. Zamiast wazonu z kwiatami – zastrzelonego człowieka. Kiedy normalne AI dostrzeże człowieka trzymającego parasol, Norman zobaczy zastrzelonego mężczyznę, a obok niego krzyczącą żonę.

Pinar Yanardag, Manuel Cebrian i Iyad Rahwan, czyli odpowiedzialny za ten projekt naukowcy MIT nie są jednak psychopatami, mieli w tym badaniu konkretny cel. Chcieli udowodnić, że sztuczna inteligencja nie jest stronnicza z natury, ale jej konkretne nastawienie, czy nawet “charakter” może zostać stworzony w oparciu o treści, jakie się jej pokazuje.

Norman stał się psychopatą i mam nadzieję, że po przeprowadzeniu badań został skasowany – jakkolwiek źle to brzmi. Wyobraźcie sobie, że taki program ląduje w robotach Boston Dynamics, nie chciałbym tego zobaczyć nawet jeśli ktoś planowałby przeprowadzić w pełni kontrolowany eksperyment. O ile również rozumiem ideę całego przedsięwzięcia to sygnał jest prosty – aby stworzyć program do zabijania (choć to oczywiście sprawdzone nie zostało), wystarczy odpowiedni dobór treści podczas procesu uczenia AI. Brawo, teraz wiemy jak stworzyć maszynę, której celem będzie eksterminacja ludzkości. A sam proces wygląda trochę jak pranie mózgu, które wielokrotnie widziałem w filmach.

A Wy co o tym sądzicie. Powinny być w ogóle przeprowadzane tego typu eksperymenty, czy lepiej podobnych tez nie sprawdzać?

grafika: pogonici/Depositphotos

źrodło