1

Sztuczna inteligencja odczytuje ludzkie emocje. Wszystko dla… naszego dobra

sztuczna inteligencja uczy się odczytywać emocje
Sztuczna inteligencja z pewnością nie jest w stanie pracować w ramach "ludzkiego poziomu percepcji". Przynajmniej na razie nie jest w stanie na wielu płaszczyznach wyczuwać naszych emocji (a może już to potrafi, tylko o tym nie wiemy?). Okazuje się jednak, że już istnieją mechanizmy, które są w stanie wykryć potencjalną kłótnię jeszcze przed tym, jak dojdzie do jej eskalacji.

Google Jigsaw, który opisywaliśmy już wcześniej ma na celu rozpoznawanie ofensywnych zachowań w sieci. Oprogramowanie napędzane sieciami neuronowymi analizuje wypowiedzi internautów i samo oznacza te, które mogą pasować do szeroko rozumianego hejtu oraz trollingu. Gigant zbratał się z Uniwersytetem w Cornell oraz Wikimedia, aby stworzyć jeszcze bardziej wyrafinowane narzędzie – będące w stanie szybko zareagować jeszcze wtedy, gdy kłótnia nie rozpoczęła się na dobre. Testy odbyły się w ramach dyskusji na Wikipedii, gdzie twórcy artykułów mogą wymieniać się spostrzeżeniami na temat prac edycyjnych.

Badacze postanowili nauczyć sztuczną inteligencję wzorców dobrze prowadzonej dyskusji. Dla przykładu: jeżeli pojawiają się w niej takie zwroty (w języku angielskim) jak „proszę”, „Jak ci minął dzień”, „Dziękuję za pomoc”, SI uważa, że wszystko jest w porządku i nie należy interweniować. Natomiast w przypadku nieco bardziej ofensywnych stwierdzeń: „Twoje źródła nic nie znaczą”, „Dlaczego nie oznaczyłeś tego fragmentu?” sztuczna inteligencja zaczyna bardziej przyglądać się tokowi dyskusji, i próbuje znaleźć oznaki nadchodzącego konfliktu. Wszystko odbywa się w ramach Perspective API od Google, które jest w stanie ocenić jak bardzo przyjazna jest rozmowa prowadzona w sieci.

Sztuczna inteligencja nie jest (jeszcze) tak dobra jak człowiek. W dalszym ciągu to my lepiej odczytujemy emocje

To całkiem zrozumiałe biorąc pod uwagę to jak długo trwają badania nad SI rozumiejącą ludzkie emocje oraz fakt, iż dla nas komunikacja niewerbalna to dla nas bardzo naturalna forma przekazywania treści. Jako ludzie, świetnie wyłapujemy kontekst, szybko łączymy wątki i jesteśmy bardzo trafnie ocenić w jakim kierunku zmierza dyskusja. Robimy to wręcz instynktownie, ale i trzeba wiedzieć o tym, że żywo reagujemy na oznaki ofensywności wypowiedzi – szczególnie jeżeli ta dotyczy nas samych.

sztuczna inteligencja jigsaw

Ludzie w teście byli w stanie wykryć prawidłowo 72 procent przypadków, w których dyskusje zmierzają w złym kierunku. SI osiągnęła wynik na poziomie 65% – to nieco mniej, ale i tak bardzo dobrze. Warto wiedzieć jednak, że sztuczna inteligencja cały czas się uczy i jestem pewien, że wkrótce nie tylko osiągnie ona skuteczność człowieka, ale i pobije jego możliwości.

Czy jesteśmy o krok od sztucznej inteligencji rozumiejącej ludzkie emocje?

Wbrew pozorom… nie. Umiejętność ich odczytania, a rozumienie złości, radości, zazdrości lub innych przyrodzonych nam emocji to zupełnie inna kwestia. Sztuczna inteligencja jest jedynie przystosowana do wyszukiwania oznak pasujących do konkretnego wzorca zachowania: a zatem dysponuje ona jedynie bazą wypowiedzi, które mogą wskazywać na to, że np. człowiek jest w złym humorze. Jeżeli takich treści w dyskusji pojawi się zbyt dużo, podniesiony zostanie alarm i jak twierdzą twórcy Perspective API, być może pojawi się kiedyś SI-moderator, który będzie próbował dusić kłótnie w zarodku.

Sztuczna inteligencja jest tworzona „na nasz obraz i podobieństwo”. Z jednej strony to odrobinę przerażające, bo nieuchronnie pcha nas to do wytworzenia sztucznej osobliwości, ale z drugiej… nie jest to w żaden sposób dziwne. Skoro SI ma wykonywać dla nas określone zadania oraz bazować na naturalnych sposobach komunikacji, musi w pewien sposób przypominać ludzi. Mało tego, musi przynajmniej „mieć wiedzę” o tym jak my działamy. Na szczęście do typowego dla nas odczytywania ludzkich emocji jest jej jeszcze daleko.