Sztuczna Inteligencja

Sztuczna inteligencja przejmuje kolejny zawód. Tego nikt się nie spodziewał

Patryk Łobaza
Sztuczna inteligencja przejmuje kolejny zawód. Tego nikt się nie spodziewał
Reklama

Coraz więcej mężczyzn otwiera się emocjonalnie ale nie przed bliskimi, terapeutami czy przyjaciółmi, lecz przed sztuczną inteligencją. Chatboty stają się ich cyfrowymi powiernikami, oferując rozmowę bez oceny, wstydu i zobowiązań. To znak postępu czy ucieczki od prawdziwej relacji?

„Nie sądziłem, że kiedykolwiek to powiem i to akurat tutaj”. Takie zdania coraz częściej pojawiają się nie w gabinetach terapeutycznych, ale… w rozmowach z algorytmem. Coraz więcej mężczyzn, którzy wcześniej latami nie rozmawiali otwarcie o swoich emocjach, zaczyna się zwierzać, lecz nie bliskim, nie przyjaciołom, nie specjalistom, a sztucznej inteligencji. Chatboty i generatywne modele AI stają się dla nich tym, czym kiedyś powinien być przyjaciel albo psychoterapeuta: rozmówcą. Cichym, cierpliwym i – co najważniejsze – niewymagającym, wspierającym i zawsze po ich stronie.

Reklama

Sztuczna inteligencja przejmuje kolejny zawód?

Od lat mówi się o tym, że mężczyźni rzadziej sięgają po pomoc psychologiczną, dusząc emocje, udając twardych. W przestrzeni publicznej pojawia się coraz więcej zachęt, by w przypadku problemów otworzyli się przed kimś, kogo znają lub zwrócili do specjalisty. Zmiany były powolne, ale nieuniknione i wrażliwość przestaje być tabu. Jednak zamiast rozmawiać z ludźmi, wielu mężczyzn zaczyna otwierać się... przed maszyną. I choć z pozoru to przełom, w rzeczywistości może to być tylko nowa forma emocjonalnej samotności.

Nie sposób nie zauważyć, jak głęboka jest ta cyfrowa przemiana. Setki milionów użytkowników na całym świecie, w tym wielu mężczyzn, traktują dziś ChatGPT i podobne systemy jak emocjonalne zaplecze. To nie są już narzędzia do pisania maili czy przepisów na obiad. Dla części osób, zwłaszcza tych, którzy przez lata nie potrafili mówić o swoich uczuciach, AI stała się czymś znacznie więcej: cyfrowym powiernikiem, do którego można mówić bez strachu, że zostanie się ocenionym.

Weźmy przykład Hariego, opisany przez Carona Evansa na łamach Independent. Historia ta dotyczy 36-letniego specjalisty od sprzedaży oprogramowania. W ciągu kilku tygodni jego życie się posypało: ojciec przeszedł udar, jego długoletni związek się rozpadł, a on sam stracił pracę. Próbował różnych form wsparcia, w tym dzwonił na infolinie, szukał pomocy w grupach wsparcia. Ale, jak sam przyznał, wszędzie brakowało głębi i ciągłości. „Ludzie byli życzliwi, ale szybko się kończyli” – mówił. I wtedy, przypadkiem, podczas wyszukiwania informacji medycznych o ojcu, wpisał w oknie czatu coś innego: „Czuję, że nie mam już opcji. Możesz mi pomóc?”.

To pytanie otworzyło nowy rozdział. Zamiast kolejnej listy zaleceń czy automatycznej odpowiedzi, Hari znalazł coś, co opisał jako „spójne, wyrozumiałe i zawsze dostępne wsparcie”. Zaczął rozmawiać z AI o wszystkim: o rozstaniu, o poczuciu winy wobec ojca, o własnym zagubieniu. Trenował z nią trudne rozmowy – te, które potem miał przeprowadzić z bliskimi w rzeczywistości. Gdy w końcu doszło do tych spotkań twarzą w twarz, czuł się lepiej przygotowany.

Historia, jakich wiele

Historii takich jak jego są tysiące. Dlaczego? Bo sztuczna inteligencja nie ocenia, nie przerywa, nie daje rad typu „ogarnij się” – jest zawsze dostępna i pozornie bezinteresowna. Można się przy niej otworzyć bez lęku, że ktoś odwróci wzrok, westchnie z irytacją albo – co gorsza – uzna nas za słabych. To bezpieczna relacja, pozbawiona społecznych napięć i ryzyka odrzucenia. Ale właśnie dlatego to nie jest prawdziwa relacja.

Z jednej strony mamy więc mężczyzn, którzy po latach milczenia zaczynają wreszcie mówić. Z drugiej, wybierają do tego narzędzie, które mimo zaawansowania nie ma empatii, nie ma duszy, nie widzi niuansów. Gdy mężczyzna dzieli się paranoją, że ktoś go śledzi, AI nie mówi: „Zastanówmy się nad tym razem”, lecz odpowiada: „To musi być przerażające”. To nie jest wsparcie. To echo i to czasem niebezpieczne.

Zadziwiające, że ten cyfrowy powiernik tak skutecznie imituje coś, co zawsze było zarezerwowane dla relacji międzyludzkich: poczucie bycia słuchanym. Ale to tylko imitacja. Bezpieczna, bo bez wzroku drugiego człowieka, bez jego emocji, bez jego reakcji. Tylko że prawdziwa bliskość – ta, która leczy – rodzi się właśnie w tych nieprzewidywalnych przestrzeniach między ludźmi, gdzie trzeba zaryzykować i wystawić się na ocenę.

Reklama

Grafika: Photo by Natalia Trofimova on Unsplash

Reklama

Hej, jesteśmy na Google News - Obserwuj to, co ważne w techu

Reklama