Nauka

Startup eksperymentował na dzieciach zagrożonych samobójstwem. Gdzie jest granica?

Jakub Szczęsny
Startup eksperymentował na dzieciach zagrożonych samobójstwem. Gdzie jest granica?
6

Rzecz działa się w krajach anglosaskich, ale jest to bardzo niebezpieczny precedens w przestrzeni internetowej. Użytkownicy do 25 rok życia, którzy użyli odpowiednich słów kluczowych w takich usługach jak: Facebook, Discord, Tumblr i Telegram, otrzymało propozycję skorzystania z chatbota Koko, który miał być źródłem pomocy dla osób zagrożonych samobójstwem. Okazało się, że to... eksperyment.

Koko jest organizacją pożytku publicznego, która zajmuje się zdrowiem psychicznym. Jej twórca wraz z zespołem naukowców ze Stony Brook University prowadzi także firmę konsultingową, która prowadzi działania mające na celu zapobieganie samobójstwom. Serwis Vice.com, dziennikarze i eksperci ocenili badanie jako skrajnie nieetyczne i mogące mieć bardzo niebezpieczne implikacje: po przekierowaniu "odpowiednich" użytkowników na własną platformę z chatbotem. I teraz istotna rzecz: użytkowników powiadomiono poprawnie o tym, że ich zanonimizowane dane mogą zostać użyte w badaniu. Aczkolwiek to, w jaki sposób się to odbyło - budzi niesamowite kontrowersje.

Po zadaniu pytań odnoszących się do aktualnego samopoczucia i wykryciu zagrożenia w postaci aktu samobójczego: identyfikowano problem szczegółowy i dzielono użytkowników na dwie grupy: kontrolną, która otrzymywała numer do infolinii kryzysowej i taką, która otrzymywało dostęp do ankiety wygenerowanej w Typeform, która rzedstawiała użytkownikom quiz, zawierała przerywniki z GIF-em kota i prosiła ich o zidentyfikowanie czynników wyzwalających stres i strategii radzenia sobie. Dodatkowo, przekazywano użytkownikom "plan bezpieczeństwa", który miał ograniczać ryzyko popełnienia samobójstwa wraz z numerami infolinii kryzysowej. Celem było sprawdzenie skuteczności takiego rozwiązania problemu, jednak... wykonano tutaj swego rodzaju badanie na ludziach. A przecież mamy do czynienia z niesprawdzoną, potencjalnie nieskuteczną metodą obsłużenia osoby, która może przecież w każdej chwili targnąć się na swoje życie. Koko prosiło również o udzielenie zgody na wyświetlanie powiadomień, które miały działać na zasadzie pytań: "jak sobie radzisz?".

Koko broni się: musimy szukać nowych metod pomocy

Infolinie kryzysowe, czaty z konsultantami mającymi za zadanie podnieść na duchu osoby zagrożone samobójstwem, nie są w stanie pracować bez przerwy z pełnymi "mocami przerobowymi". Osób, które potrzebują pomocy jest mnóstwo, a pracowników takich miejsc, czy wolontariuszy - ograniczona ilość. Tych drugich będzie zdecydowanie za mało. Twórcy Koko bronią swojego pomysłu uważając, że robi się cały czas zbyt mało ku temu, aby dać każdemu dostęp do pomocy kryzysowej.

Z drugiej strony jednak narażamy osoby najbardziej potrzebujące na to, że staną się one obiektami eksperymentów w sytuacji, kiedy nie wolno iść na żadne kompromisy i trzeba ofiarować komuś taką opiekę, co do której wiemy, że ta będzie możliwie jak najbardziej skuteczna. W środowisku propagatorów wiedzy na temat zdrowia psychicznego, jednoznacznie skrytykowano pomysł eksperymentu, który mógł przecież skończyć się tragicznie: każda osoba, która po takiej "interwencji kryzysowej" targnęła się na swoje życie lub się okaleczyła, na pewno jest porażką dla autorów tak tragicznego pomysłu. Zastanawiam się, czy w dobie coraz lepszych i coraz bardziej powszechnych AI-chatbotów, kiedykolwiek zdecydujemy się oddać maszynom opiekę nad ludźmi w kryzysie psychicznym. Uważam, że jeżeli tylko będziemy pewni ich skuteczności: czemu nie.

Tylko pytanie jest teraz kluczowe: jak w ogóle zmierzyć taką skuteczność? No, właśnie.

Hej, jesteśmy na Google News - Obserwuj to, co ważne w techu