Rzecz działa się w krajach anglosaskich, ale jest to bardzo niebezpieczny precedens w przestrzeni internetowej. Użytkownicy do 25 rok życia, którzy użyli odpowiednich słów kluczowych w takich usługach jak: Facebook, Discord, Tumblr i Telegram, otrzymało propozycję skorzystania z chatbota Koko, który miał być źródłem pomocy dla osób zagrożonych samobójstwem. Okazało się, że to... eksperyment.
Startup eksperymentował na dzieciach zagrożonych samobójstwem. Gdzie jest granica?
Koko jest organizacją pożytku publicznego, która zajmuje się zdrowiem psychicznym. Jej twórca wraz z zespołem naukowców ze Stony Brook University prowadzi także firmę konsultingową, która prowadzi działania mające na celu zapobieganie samobójstwom. Serwis Vice.com, dziennikarze i eksperci ocenili badanie jako skrajnie nieetyczne i mogące mieć bardzo niebezpieczne implikacje: po przekierowaniu "odpowiednich" użytkowników na własną platformę z chatbotem. I teraz istotna rzecz: użytkowników powiadomiono poprawnie o tym, że ich zanonimizowane dane mogą zostać użyte w badaniu. Aczkolwiek to, w jaki sposób się to odbyło - budzi niesamowite kontrowersje.
Po zadaniu pytań odnoszących się do aktualnego samopoczucia i wykryciu zagrożenia w postaci aktu samobójczego: identyfikowano problem szczegółowy i dzielono użytkowników na dwie grupy: kontrolną, która otrzymywała numer do infolinii kryzysowej i taką, która otrzymywało dostęp do ankiety wygenerowanej w Typeform, która rzedstawiała użytkownikom quiz, zawierała przerywniki z GIF-em kota i prosiła ich o zidentyfikowanie czynników wyzwalających stres i strategii radzenia sobie. Dodatkowo, przekazywano użytkownikom "plan bezpieczeństwa", który miał ograniczać ryzyko popełnienia samobójstwa wraz z numerami infolinii kryzysowej. Celem było sprawdzenie skuteczności takiego rozwiązania problemu, jednak... wykonano tutaj swego rodzaju badanie na ludziach. A przecież mamy do czynienia z niesprawdzoną, potencjalnie nieskuteczną metodą obsłużenia osoby, która może przecież w każdej chwili targnąć się na swoje życie. Koko prosiło również o udzielenie zgody na wyświetlanie powiadomień, które miały działać na zasadzie pytań: "jak sobie radzisz?".
Koko broni się: musimy szukać nowych metod pomocy
Infolinie kryzysowe, czaty z konsultantami mającymi za zadanie podnieść na duchu osoby zagrożone samobójstwem, nie są w stanie pracować bez przerwy z pełnymi "mocami przerobowymi". Osób, które potrzebują pomocy jest mnóstwo, a pracowników takich miejsc, czy wolontariuszy - ograniczona ilość. Tych drugich będzie zdecydowanie za mało. Twórcy Koko bronią swojego pomysłu uważając, że robi się cały czas zbyt mało ku temu, aby dać każdemu dostęp do pomocy kryzysowej.
Z drugiej strony jednak narażamy osoby najbardziej potrzebujące na to, że staną się one obiektami eksperymentów w sytuacji, kiedy nie wolno iść na żadne kompromisy i trzeba ofiarować komuś taką opiekę, co do której wiemy, że ta będzie możliwie jak najbardziej skuteczna. W środowisku propagatorów wiedzy na temat zdrowia psychicznego, jednoznacznie skrytykowano pomysł eksperymentu, który mógł przecież skończyć się tragicznie: każda osoba, która po takiej "interwencji kryzysowej" targnęła się na swoje życie lub się okaleczyła, na pewno jest porażką dla autorów tak tragicznego pomysłu. Zastanawiam się, czy w dobie coraz lepszych i coraz bardziej powszechnych AI-chatbotów, kiedykolwiek zdecydujemy się oddać maszynom opiekę nad ludźmi w kryzysie psychicznym. Uważam, że jeżeli tylko będziemy pewni ich skuteczności: czemu nie.
Tylko pytanie jest teraz kluczowe: jak w ogóle zmierzyć taką skuteczność? No, właśnie.
Hej, jesteśmy na Google News - Obserwuj to, co ważne w techu