Robi się ciekawie. Jeszcze kilka lat temu nikt poważnie nie myślał o tym, że chatbot będzie lepszy od człowieka w rozpoznawaniu emocji. Z początku, rozmowy w interfejsie pioniera branży: ChatGPT, ograniczały się do prostych komunikatów, instrukcji i sztywnych odpowiedzi. Aczkolwiek, badania opublikowane w Communications Psychology pokazują, że duże modele językowe i — rzecz jasna — również ChatGPT-4, Gemini 1.5 Flash oraz Claude 3.5 Haiku, nie tylko rozwiązują testy inteligencji emocjonalnej lepiej niż ludzie, ale potrafią też samodzielnie generować ich nowe wersje. I robią to z zadziwiającą skutecznością.

Zespół badaczy z Uniwersytetu w Bernie oraz Uniwersytetu Genewskiego postanowił sprawdzić, jak LLM-y (czyli: duże modele językowe / z ang. large language models) radzą sobie w pięciu ustandaryzowanych testach inteligencji emocjonalnej. Modele zostały skonfrontowane z wynikami uzyskanymi przez ludzi w zestawach badań typu GEMOK-Blends, STEU, STEM oraz GECo.
Przeciętny wynik ludzi? 56%. Średnia dla modeli? 81%. Warto zaznaczyć, że każdy test był powtarzany dziesięciokrotnie, a zatem próbka do wyciągnięcia informacji była spora. Za każdym razem modele osiągały wyniki istotnie wyższe niż przeciętny człowiek — i to o co najmniej jedną wartość ustalonego odchylenia standardowego w badaniu. To już nie są przelewki.
Wśród badanych zdolności były: rozpoznawanie emocji w scenariuszach życiowych, proponowanie strategii radzenia sobie z emocjami, przewidywanie reakcji emocjonalnych w sytuacjach interpersonalnych, a także ocenianie najbardziej empatycznych reakcji w środowisku pracy. Modele wykazywały nie tylko trafność w odpowiedziach, ale też spójność i logiczną argumentację. Wyniki nie były zatem dziełem przypadku, czy też sztywnego schematu. Nie oznacza to jednak przy okazji, że LLM-y są autorefleksyjne i empatyczne w sensie ludzkim.
Sztuczna inteligencja tworzy testy sprawdzające inteligencję emocjonalną. Świat się kończy?
W drugiej fazie eksperymentu badacze poprosili ChatGPT-4 o stworzenie nowych zestawów zadań do testów inteligencji emocjonalnej — od podstaw, ale na podstawie struktury znanych już testów. Tak wygenerowane pytania zostały następnie poddane walidacji w pięciu odrębnych badaniach z udziałem 467 uczestników.
I tutaj kolejne zaskoczenie. Testy stworzone przez AI były niemal nie do odróżnienia od tych przygotowanych przez ludzi. Miały podobny poziom trudności, zbliżoną różnorodność tematyczną, a także identyczne parametry przejrzystości, realizmu i trafności kontekstowej. Statystycznie rzecz biorąc, nie odnotowano istotnych odchyleń między zestawami tworzonymi przez ludzi i tymi autorstwa maszyn — różnice mieściły się w granicach wielkości efektu d Cohena (±0,25). Wychodzi na to, że AI wkrótce wygryzie nas w konstruowaniu przydatnych narzędzi badawczych. Kwestionariusze ankiet do badań wolne od błędów wpływających na wyniki już teraz są w stu procentach w zasięgu sztucznej inteligencji.
Od rozpoznawania do generowania emocji
Badanie wskazuje więc na punkt zwrotny w relacji człowieka ze sztuczną inteligencją. Po raz pierwszy wykazano, że LLM potrafi nie tylko analizować emocje w sposób przekraczający średnie ludzkie możliwości, ale również projektować testy, które są psychometrycznie poprawne i zdatne do wykorzystania w diagnostyce, edukacji oraz coachingu. To zaś oznacza, że sztuczna inteligencja może wspierać procesy rozwoju emocjonalnego, a nawet terapeutycznego — o ile oczywiście jest odpowiednio prowadzona. I tutaj trzeba jasno zaznaczyć: nie ma co mówić o zastępowaniu specjalistów z dziedziny psychologii. Raz, że ktoś musi "pilnować" sztucznej inteligencji, a dwa — ludzie w dalszym ciągu będą łatwiej otwierać się przed drugim człowiekiem. "Zbyt ludzka" AI zdecydowanie będzie powodować u większości osób w terapii efekt (będący dobrze umocowanym w hipotezie naukowej) doliny niesamowitości: podejrzanie duże podobieństwo maszyny do człowieka wywoła szereg nieprzyjemnych odczuć — w tym odrazę.
Zresztą, AI nie "czuje" w klasycznym sensie. Modele nie mają świadomości ani doświadczeń wewnętrznych. Ich przewaga polega na zdolności modelowania statystycznych zależności językowych i kulturowych — a więc rozumieją emocje... jednak w sensie symulowania ich. Ale jeśli potrafią generować narracje, które trafnie odwzorowują ludzkie przeżycia, przewidywać reakcje emocjonalne, proponować trafne strategie regulacji — to czy naprawdę istotne jest, czy "rozumieją", co piszą i co czuje drugi człowiek? Przecież dzięki temu będą odporne również na wszelkie typowo ludzkie uprzedzenia (choć nie jest od nich wolna w nieco innym kontekście, ze względu na dane, jakimi została nakarmiona). Nie będzie podatna na manipulację, nie będzie współczuć na tyle, by stać się nieprofesjonalna i stracić z oczu cel nadrzędny. O ile — jak założyliśmy wyżej — będzie odpowiednio prowadzona.
Etyka, nauka i przyszłość
W całym badaniu niebagatelną rolę odegrała otwartość nauki. Wszystkie dane, scenariusze i struktury testów były publicznie dostępne. Co więcej, AI — wcześniej traktowana jako narzędzie wspierające — staje się dziś aktywnym uczestnikiem procesów naukowych, nie tylko analizując, ale i tworząc nowe narzędzia.
W praktyce oznacza to, że LLM-y mogą wspierać terapeutów w przygotowywaniu scenariuszy pracy z emocjami, nauczycieli w diagnozowaniu potrzeb uczniów, a także specjalistów HR w ocenie kompetencji emocjonalnych pracowników. Warunkiem jest jedno: nadzór. Bez nadzoru, możemy stracić sfokusowanie się na realnym celu: obecności i postępie.
Czytaj również: Sztuczna Inteligencja robi nas w bambuko. Grok niechlubnym liderem
Bo jak wspomniałem: nie chodzi o to, by AI zastąpiła człowieka. Ma być w stanie przewidzieć, zareagować, zaproponować rozwiązanie. Wkrótce nauczy się symulować nasze emocje na tyle dobrze, by to wystarczyło. A to już naprawdę dużo. I choć może to wydawać się przerażające, to jednak powinniśmy spojrzeć na to inaczej. Postępu w tej dziedzinie zatrzymać się nie da: wydaje się więc, że będzie to po prostu konieczne, a my mamy za zadanie to dobrze zagospodarować.
Hej, jesteśmy na Google News - Obserwuj to, co ważne w techu