Amnesty International oskarża Facebooka o przyczynianie się do eksterminacji Rohingjów. Algorytmy platformy mają napędzać spiralę nienawiści.
Facebook przyczynił się do czystek etnicznych? Amnesty International wysuwa poważne oskarżenia
Pod koniec lipca informowałem o kampanii reklamowej na Facebooku, która wzywała do czystek etnicznych w Kenii. Moderacja Meta w tak ważnych sprawach wydawała się dziurawa jak sito, a w kierunku najpopularniejszego medium społecznościowego padły oskarżenia o zarabianie na ludobójstwie. Minęły zaledwie dwa miesiące, a Facebook znów stanął w ogniu krytyki. I choć region wydarzeń się zmienił, to motyw pozostaje niestety ten sam.
Platforma do dehumanizacji
Mjanma, czyli niewielkie państewko położone w Azji Południowo-Wschodniej to arena ostrych konfliktów na tle narodowościowym. Dawna Birma to kraj wysoce różnorodny pod względem etnicznym, nękany wewnętrznymi konfliktami od dekad. Mianmę zamieszkuje ponad 55 milionów ludzi, a dla wielu z nich głównym źródłem informacji o świecie jest Facebook. To właśnie tam dochodzi do licznych kampanii, mających na celu eksterminację muzułmańskiej ludności Rohingja. Ten specyficzny region cechuje się wysokim ubóstwem i skrajnie niskim wykształceniem, dlatego też zmanipulowane treści – publikowane przez buddyjskich nacjonalistów – wchłaniają się w mieszkańców Mjanma niczym gąbka.
Facebook jest tam głównym medium nie tylko pod kątem społecznościowym, ale także informacyjnym. Miliony mieszkańców Mjanmy znajdują się w zasięgu nienawistnych i odczłowieczających postów, które mają doprowadzić do ostatecznej eksterminacji muzułmańskiej mniejszości. W stronę Meta wytoczono poważne skarżenia o rzekome podbijanie zasięgów propagandowych treści, aby zwiększyć zarobki na reklamach.
Tragiczne skutki facebookowych algorytmów
W opublikowanym raporcie Amnesty International analizuje przypadek biernej postawy moderacji Facebooka wobec narastającego okrucieństwa wobec ludności Rohingja. Organizacja praw człowieka uważa, że Meta odegrała w tej katastrofie humanitarnej niemałą rolę, dzięki algorytmom napędzającym nienawiść.
„Masowe rozpowszechnianie przesłań nawołujących do nienawiści, podżegających do przemocy i dyskryminacji wobec Rohingjów, a także innych odczłowieczających i dyskryminujących treści anty-Rohingjngowych, dolało oliwy do ognia długotrwałej dyskryminacji i znacznie zwiększyło ryzyko wybuchu epidemii masowej przemocy” –Amnesty International
Wojskowe bojówki rządzące krajem, są odpowiedzialne za liczne gwałty, morderstwa, grabieże i aresztowania. Przedstawiciele grupy Rohingja nie są uznawani przez władzę państwa jako ludzie, a pozbawionych praw do edukacji muzułmanów zamyka się w przeludnionych gettach. Do przeprowadzania procesu dehumanizacji nacjonaliści używają facebookowej tablicy, gdzie według Amnesty International publikują wezwania do przemocy i antynaukowe tezy o konieczności pozbawienia Rohingjów praw człowieka.
W raporcie opublikowano zarzuty, według których algorytmy Facebooka miałby podbijać zasięgi ekstremistycznych postów. Agnès Callamard – sekretarz generalna Amnesty International – stwierdziła, że Meta powinna zostać pociągnięta do odpowiedzialności i zadośćuczynić tym, którzy ponieśli konsekwencje „lekkomyślnych” działań firmy. Organizacja uważa, że liczba przykładów dokładania przez Facebooka ręki do ludobójstwa jest ogromna.
A co na to Meta? Korporacja oświadczyła, że stoi po stronie międzynarodowej społeczności i wspiera wysiłki mające na celu pociągnięcie do odpowiedzialności Tatmadaw, czyli wojskowych oddziałów buddyjskich nacjonalistów. Firma zobowiązała się także do udostępnienia ONZ danych niezbędnych do przeprowadzenia śledztwa. Faktem jest, że nawet jeśli Meta nie zaplanowała operacji zarabiania na dehumanizacji, to powinna czuć się odpowiedzialna za opieszałą reakcję na skrajnie niebezpieczne treści publikowane na ich własnej platformie. To bowiem nie pierwsze tak poważne wydarzenia, w których algorytmy Facebooka grają pierwsze skrzypce. I niestety znów przyczyniają się do tragedii.
Stock image from Depositphotos
Hej, jesteśmy na Google News - Obserwuj to, co ważne w techu