Co by się stało gdyby jako materiały do nauki dla sztucznej inteligencji wybierać tylko brutalne zdjęcia i obrazki? Czy tak powstałby program, który zdeklasowałby najgroźniejszych psychopatów w historii ludzkości? Naukowcy postanowili to sprawdzić, wynik eksperymentu przeraża.
Nakarmili sztuczną inteligencję obrazkami z reddita, powstał cyfrowy psychopata
Doskonale wiecie, że kibicuję zarówno robotyce, jak i sztucznej inteligencji. Moim zdaniem to przyszłość technologii, a co za tym idzie przyszłość ludzkości. Autonomiczne auta, roboty - czy nawet androidy, które póki co widzimy tylko w grach, takich jak Detroit: Become Human.
Myśląc o AI i inteligentnych robotach widzę przede wszystkim przyjazne maszyny, które człowiek stworzy po to, by ułatwić sobie życie, odciążyć ludzkość od najtrudniejszych i najbardziej niebezpiecznych czynności. Robot będzie przyjacielem, może też doradcą. Gdzieś z tyłu głowy jednak pojawiają się wizje znane z filmów pokroju Terminator czy Matrix. Tam inteligentne maszyny były do ludzi nastawione wrogo, chciały je wręcz unicestwić. W obrazach science-fiction powody tego typu działań były różne - AI uznawało ludzkość za największe zagrożenie dla niej samej albo po prostu chciało stłumić bunt w świecie, nad którym rządy przejęło. Powód był jednak ważny, bo to właśnie on stał się punktem zapalnym na gruncie konfliktu i to on zmienił rzeczywistość.
A co jeśli wrogą maszynę stworzy sam człowiek?
Nie wiem w zasadzie dlaczego o to pytam, bo to już się stało. Póki co w formie eksperymentu, ale przecież od czegoś wszystko zawsze się zaczyna. Algorytm o imieniu Norman nie miał łatwego startu. Nie wiem czy wszyscy kiedyś odwiedzili forum reddit, ale to miejsce, które skrywa nie tylko bardzo ciekawe informacje, ale i zawartość, z którą nie każdy powinien mieć styczność. Naukowcy odpowiedzialni za to konkretne AI postanowili wynaleźć tam najbardziej brutalne materiały i karmić nimi Normana.
Efekt? Przerażający
Kiedy standardowa sztuczna inteligencja widzi obrazek przedstawiający zbliżenie na weselny tort stojący na stole, Norman widzi człowieka zabitego przez przekraczającego prędkość kierowcę. Zamiast wazonu z kwiatami - zastrzelonego człowieka. Kiedy normalne AI dostrzeże człowieka trzymającego parasol, Norman zobaczy zastrzelonego mężczyznę, a obok niego krzyczącą żonę.
Pinar Yanardag, Manuel Cebrian i Iyad Rahwan, czyli odpowiedzialny za ten projekt naukowcy MIT nie są jednak psychopatami, mieli w tym badaniu konkretny cel. Chcieli udowodnić, że sztuczna inteligencja nie jest stronnicza z natury, ale jej konkretne nastawienie, czy nawet “charakter” może zostać stworzony w oparciu o treści, jakie się jej pokazuje.
Norman stał się psychopatą i mam nadzieję, że po przeprowadzeniu badań został skasowany - jakkolwiek źle to brzmi. Wyobraźcie sobie, że taki program ląduje w robotach Boston Dynamics, nie chciałbym tego zobaczyć nawet jeśli ktoś planowałby przeprowadzić w pełni kontrolowany eksperyment. O ile również rozumiem ideę całego przedsięwzięcia to sygnał jest prosty - aby stworzyć program do zabijania (choć to oczywiście sprawdzone nie zostało), wystarczy odpowiedni dobór treści podczas procesu uczenia AI. Brawo, teraz wiemy jak stworzyć maszynę, której celem będzie eksterminacja ludzkości. A sam proces wygląda trochę jak pranie mózgu, które wielokrotnie widziałem w filmach.
A Wy co o tym sądzicie. Powinny być w ogóle przeprowadzane tego typu eksperymenty, czy lepiej podobnych tez nie sprawdzać?
grafika: pogonici/Depositphotos
Hej, jesteśmy na Google News - Obserwuj to, co ważne w techu