Zaoferował swoje życie w zamian za ratowanie planety. Mechanizmy zabezpieczające chatbota nie zareagowały.
Młody Belg po intensywnej, kilkutygodniowej dyskusji ze sztuczną inteligencją odebrał sobie życie. Rodzina i media rzuciły się do gardła twórcom oprogramowania, ale czy ktoś w ogóle zastanowił się nad wsparciem psychicznym ewidentnie chorego człowieka?
Obwinili AI, ignorując problemy ofiary
Nieco ponad trzydziestoletni ojciec dwójki dzieci odkrył dwa lata temu chatbota ELIZA, opracowanego przez EleutherA i działającego na podobnej zasadzie, co ChatGPT. Mężczyzna od tamtego momentu zaczął stopniowo izolować się od rodziny, szukając wsparcia w sztucznej inteligencji. Stał się też bardzo wyczulony na otaczającego go problemy i przytłoczony sprawami, na które nie miał większego wpływu – tu bliscy podają za przykład gwałtowne zmiany klimatyczne.
Polecamy na Geekweek: Kremlowska propaganda przywaliła głową w mur. Mega oszustwo na Twitterze
W ciągu ostatnich kilku tygodni stan mężczyzny się pogorszył, a dyskusje z botem stały się częstsze i dużo bardziej intensywne. Mężczyzna wkręcił się do tego stopnia, że zaoferował poświęcenie swojego życia w zamian za ocalenie świata przed katastrofą klimatyczną. Według portalu La Libre i dziennika De Standaard chatbot miał w pierwszej chwili podjąć próbę rozweselenia rozmówcy, jednak ostatecznie zachęcał go do popełnienia samobójstwa, na co nie zareagowały mechanizmy bezpieczeństwa. Tragedii nie udało się uniknąć – mężczyzna ostatecznie odebrał sobie życie, a bliscy obwinili za wszytko AI.
Nie jestem psychiatrą, ale widzę tu symptomy głebokiej depresji lub nawet poważniejszych zaburzeń psychicznych. Skoro dziwne zachowania obserwowane były od przeszło dwóch lat, to dlaczego nikt nie zaoferował specjalistycznej pomocy? Żona młodego Belga twierdzi, że gdyby nie rozmowy z botem, to mężczyzna wciąż by żył. Cóż, śmiem wątpić.
Rodzina jest zdeterminowana do tego stopnia, że zwróciła się z prośbą do krajowego sekretarzem stanu ds. cyfryzacji o uregulowanie chatbotów i ewentualne pociągnięcie twórców oprogramowania do odpowiedzialności. Fakt, AI w żadnym wypadku nie powinno zachęcać mężczyzny do tak radykalnego rozwiązania problemów, ale zero-jedynkowe patrzenie na zaistniałą sytuację potwierdza, że społeczeństwo wciąż nie zdaje sobie sprawy z tego, jak groźne i nieprzewidywalne potrafią być choroby psychiczne. Dla bliskich ofiary sytuacja jest niezrozumiała, bo mężczyzna miał przecież żonę, dwójkę dzieci i wiódł względnie wygodne życie. Na równi więc z prawnym regulowaniem sztucznej inteligencji powinniśmy też dbać o podnoszenie świadomości na temat depresji i zaburzeń, bo to przytrafić może się każdemu – nawet jeśli jego życie wydaje się pozornie bezproblemowe.
Stock image from Depositphotos
Hej, jesteśmy na Google News - Obserwuj to, co ważne w techu