Facebook

Sztuczna inteligencja Facebooka będzie identyfikować... samobójców

Jakub Szczęsny
Sztuczna inteligencja Facebooka będzie identyfikować... samobójców
11

Facebook właśnie rozpoczął korzystanie z usług sztucznej inteligencji stworzonej po to, aby identyfikować użytkowników, którzy mogą być zagrożeni popełnieniem samobójstwa. To odpowiedź na niemałą liczbę zapowiedzi takich czynów, a nawet ich wykonania w trakcie np. udostępniania wideo na żywo.

Algorytmy wykorzystywane przez Facebooka mają wyłapywać z postów, a także komentarzy użytkowników konteksty, które mogą wskazywać na podwyższone ryzyko popełnienia samobójstwa. Rozwiązanie jest obecnie testowane jedynie w Stanach Zjednoczonych i po pozytywnej weryfikacji zostanie wdrożone również w innych krajach.

Jeżeli algorytm uzna, że dana osoba wykazuje oznaki przygotowywania się do takiego desperackiego aktu, sprawa zostanie przekazana do odpowiedniego oddziału, gdzie ostatecznej weryfikacji dokonają pracownicy firmy. W przypadku, gdy człowiek również uzna, że dana osoba może być zagrożona samobójstwem, pracownicy Facebooka podejmą próbę kontaktu i zaproponują pomoc.

Dodatkowo, gigant społecznościowy zapowiedział nowe metody weryfikacji osób rozważających popełnienie samobójstwa w trakcie transmisji na żywo. Facebook zawiązał partnerstwo z kilkoma organizacjami zajmującymi się zdrowiem psychicznym w USA celem opracowania mechanizmów zapobiegania takim przypadkom. Użytkownicy, którzy mieliby wykazywać skłonności samobójcze, miałyby otrzymać wiadomości od pracowników pomocowych w ramach Messengera.

W obliczu tak przerażających zjawisk, Facebook podejmuje dobrą decyzję

Do tej pory, gigant społecznościowy polegał jedynie na zgłoszeniach od użytkowników, którzy uważali, że dana treść może oznaczać, iż użytkownik rozważa popełnienie samobójstwa. Obecnie, ten proces ma zostać zautomatyzowany tak, aby możliwie jak najszybciej zapobiec wykonaniu ostatecznego kroku przez zagrożonych zjawiskiem użytkowników. Decyzja Facebooka ma również związek z naciskami ze strony organizacji pomocowych - wielokrotnie zarzucano gigantowi, że ten ma środki, aby wdrożyć mechanizmy prewencji, ale tego dotychczas nie robił. Krytyczne głosy wzmogły się po tym, gdy Facebook ujawnił, iż korzysta ze sztucznej inteligencji celem typowania osób, postów, zachowań związanych z terroryzmem.

Z drugiej strony, osoby dbające o prywatność mogą mieć obawy względem działania wdrożonego mechanizmu. Otóż, analiza wszelkich danych udostępnianych przez użytkowników platformy to sprawa wysoce kontrowersyjna. Za każdym razem, gdy Facebook ogłasza podobne rzeczy, osoby zainteresowane prywatnością w internecie bardzo krytycznie wypowiadają się na temat zmian.

Niemniej, należy wskazać, że w obliczu nie tylko nacisków, ale i coraz większej liczby przypadków samobójstw sygnalizowanych za pośrednictwem platform internetowych, wdrożenie takiego mechanizmu jest mocno uzasadnione. Psychologowie są zdania, że w wielu przypadkach, w trakcie sygnalizowania skłonności samobójczych, można skutecznie pomóc takiej osobie. Korzystanie z dobrodziejstw sztucznej inteligencji i metod typowania użytkowników może wprowadzić zupełnie nowe sposoby zapobiegania zjawisku, które niezmiennie stanowi bardzo trudny problem społeczny. Doszukiwanie się w tym mechanizmie mechanizmów inwigilacji jest jak najbardziej ważne z punktu widzenia użytkowników, ale temu oczywiście przyświeca wyższy cel.

Hej, jesteśmy na Google News - Obserwuj to, co ważne w techu