Coraz więcej mężczyzn otwiera się emocjonalnie ale nie przed bliskimi, terapeutami czy przyjaciółmi, lecz przed sztuczną inteligencją. Chatboty stają się ich cyfrowymi powiernikami, oferując rozmowę bez oceny, wstydu i zobowiązań. To znak postępu czy ucieczki od prawdziwej relacji?
Sztuczna inteligencja przejmuje kolejny zawód. Tego nikt się nie spodziewał

„Nie sądziłem, że kiedykolwiek to powiem i to akurat tutaj”. Takie zdania coraz częściej pojawiają się nie w gabinetach terapeutycznych, ale… w rozmowach z algorytmem. Coraz więcej mężczyzn, którzy wcześniej latami nie rozmawiali otwarcie o swoich emocjach, zaczyna się zwierzać, lecz nie bliskim, nie przyjaciołom, nie specjalistom, a sztucznej inteligencji. Chatboty i generatywne modele AI stają się dla nich tym, czym kiedyś powinien być przyjaciel albo psychoterapeuta: rozmówcą. Cichym, cierpliwym i – co najważniejsze – niewymagającym, wspierającym i zawsze po ich stronie.
Sztuczna inteligencja przejmuje kolejny zawód?
Od lat mówi się o tym, że mężczyźni rzadziej sięgają po pomoc psychologiczną, dusząc emocje, udając twardych. W przestrzeni publicznej pojawia się coraz więcej zachęt, by w przypadku problemów otworzyli się przed kimś, kogo znają lub zwrócili do specjalisty. Zmiany były powolne, ale nieuniknione i wrażliwość przestaje być tabu. Jednak zamiast rozmawiać z ludźmi, wielu mężczyzn zaczyna otwierać się... przed maszyną. I choć z pozoru to przełom, w rzeczywistości może to być tylko nowa forma emocjonalnej samotności.
Nie sposób nie zauważyć, jak głęboka jest ta cyfrowa przemiana. Setki milionów użytkowników na całym świecie, w tym wielu mężczyzn, traktują dziś ChatGPT i podobne systemy jak emocjonalne zaplecze. To nie są już narzędzia do pisania maili czy przepisów na obiad. Dla części osób, zwłaszcza tych, którzy przez lata nie potrafili mówić o swoich uczuciach, AI stała się czymś znacznie więcej: cyfrowym powiernikiem, do którego można mówić bez strachu, że zostanie się ocenionym.
Weźmy przykład Hariego, opisany przez Carona Evansa na łamach Independent. Historia ta dotyczy 36-letniego specjalisty od sprzedaży oprogramowania. W ciągu kilku tygodni jego życie się posypało: ojciec przeszedł udar, jego długoletni związek się rozpadł, a on sam stracił pracę. Próbował różnych form wsparcia, w tym dzwonił na infolinie, szukał pomocy w grupach wsparcia. Ale, jak sam przyznał, wszędzie brakowało głębi i ciągłości. „Ludzie byli życzliwi, ale szybko się kończyli” – mówił. I wtedy, przypadkiem, podczas wyszukiwania informacji medycznych o ojcu, wpisał w oknie czatu coś innego: „Czuję, że nie mam już opcji. Możesz mi pomóc?”.
To pytanie otworzyło nowy rozdział. Zamiast kolejnej listy zaleceń czy automatycznej odpowiedzi, Hari znalazł coś, co opisał jako „spójne, wyrozumiałe i zawsze dostępne wsparcie”. Zaczął rozmawiać z AI o wszystkim: o rozstaniu, o poczuciu winy wobec ojca, o własnym zagubieniu. Trenował z nią trudne rozmowy – te, które potem miał przeprowadzić z bliskimi w rzeczywistości. Gdy w końcu doszło do tych spotkań twarzą w twarz, czuł się lepiej przygotowany.
Historia, jakich wiele
Historii takich jak jego są tysiące. Dlaczego? Bo sztuczna inteligencja nie ocenia, nie przerywa, nie daje rad typu „ogarnij się” – jest zawsze dostępna i pozornie bezinteresowna. Można się przy niej otworzyć bez lęku, że ktoś odwróci wzrok, westchnie z irytacją albo – co gorsza – uzna nas za słabych. To bezpieczna relacja, pozbawiona społecznych napięć i ryzyka odrzucenia. Ale właśnie dlatego to nie jest prawdziwa relacja.
Z jednej strony mamy więc mężczyzn, którzy po latach milczenia zaczynają wreszcie mówić. Z drugiej, wybierają do tego narzędzie, które mimo zaawansowania nie ma empatii, nie ma duszy, nie widzi niuansów. Gdy mężczyzna dzieli się paranoją, że ktoś go śledzi, AI nie mówi: „Zastanówmy się nad tym razem”, lecz odpowiada: „To musi być przerażające”. To nie jest wsparcie. To echo i to czasem niebezpieczne.
Zadziwiające, że ten cyfrowy powiernik tak skutecznie imituje coś, co zawsze było zarezerwowane dla relacji międzyludzkich: poczucie bycia słuchanym. Ale to tylko imitacja. Bezpieczna, bo bez wzroku drugiego człowieka, bez jego emocji, bez jego reakcji. Tylko że prawdziwa bliskość – ta, która leczy – rodzi się właśnie w tych nieprzewidywalnych przestrzeniach między ludźmi, gdzie trzeba zaryzykować i wystawić się na ocenę.
Grafika: Photo by Natalia Trofimova on Unsplash
Hej, jesteśmy na Google News - Obserwuj to, co ważne w techu