Facebook

Facebook nie panuje nad sytuacją. Platforma odpowie w sądzie za podsycanie konfliktów etnicznych

Patryk Koncewicz
Facebook nie panuje nad sytuacją. Platforma odpowie w sądzie za podsycanie konfliktów etnicznych
3

W Etiopii doszło do zabójstwa profesora uniwersyteckiego. Jego śmierć poprzedziła kampania nienawiści na Facebooku, na którą moderacja nie zwróciła uwagi.

Pod koniec września pisałem o czystkach etnicznych w dawnej Birmie, za które według Amnesty International jest poniekąd odpowiedzialny Facebook. Portal Marka Zuckerberga jest dla milionów mieszkańców Azji Południowo-Wschodniej głównym źródłem informacji. Przez skrajnie niski poziom wykształcenia i brak kompetencji cyfrowych lokalna władza bardzo łatwo manipuluje opinią publiczną, prowadząc kampanie zmierzające do eksterminacji mniejszości muzułmańskiej. Facebook niczego nie nauczył się z tamtych wydarzeń, bo do bliźniaczych sytuacji dochodzi Etiopii.  Morderstwo jednego z profesorów uniwersytecki ponownie zmusza do zadania pytania, czy Facebook jeszcze panuje nad sytuacją?

Kenia, Mjanma, Etiopia. Bierność Facebooka znów kończy się tragicznie

Funkcjonując w cyfrowym społeczeństwie, które posiada dostęp do różnych źródeł informacji i potrafi się po nich poruszać, ciężko uwierzyć w to, że post na platformie społecznościowej jest w stanie wywołać lawinę, prowadzącą do rozlewu krwi. Niestety w Kenii, Etiopii czy wspomnianej Mjanmie sytuacja nie jest tak oczywista. Facebook stanowi tam bowiem nie tylko centrum interakcji społecznościowych, ale także główne źródło rozrywki i informacji o świecie. To idealne miejsce do bezkarnego rozwijania politycznej propagandy, która coraz częściej doprowadza do tragedii.

Źródło: Reuters

Meareg Amare – profesor chemii na uniwersytecie Bahir Dar w Etiopii został zastrzelony przed swoim mieszkaniem. Mężczyzna od miesiąca był celem kampanii dehumanizacyjnej na Facebooku, gdzie zarzucano mu kradzież sprzętu z uczelni oraz późniejszą sprzedaż w celu pozyskania pieniędzy na zakup nieruchomości. To wystarczyło, by w komentarzach pojawiły się groźby śmierci. Jaki był faktyczny cel tych działań? Meareg Amare etnicznie należy do Tigrajczyków, którzy według Amnesty International i Human Rights Watch są ofiarami czystek etnicznych od wybuchu etiopskiej wojny domowej w 2020 roku.

Syn zamordowanego profesora, Abrham Amare, uważa, że Facebook miał okazję powstrzymać ten wyciek nienawiści. Przysiągł pociągnąć platformę do odpowiedzialności.

Moderacja Facebooka? Ślepa i głucha na sygnały

Dlaczego podsycanie konfliktów etnicznych na Facebooku jest tak proste? Cóż, zacznijmy od tego, że w samej Kenii funkcjonuje ponad 80 języków. Platforma nie posiada wystarczającej infrastruktury technicznej do filtrowania aż tak zróżnicowanej dawki treści. No dobra, zapewne posiada, ale jej utrzymanie nie jest opłacalne, dlatego też do moderowania postów w Kenii przydzielono zaledwie 25 pracowników, a w zakresie ich obowiązków leży monitorowanie contentu publikowanego przez… ponad 6 milionów użytkowników.

Co ciekawe Facebook nie posiada nawet klasyfikatorów szkodliwych treści w oromo i amharskim, czyli dwóch najpopularniejszych językach w Etiopii. Mówiąc jaśniej, moderatorzy nie wiedzą dokładnie które treści mogą stanowić zagrożenie. No, chyba że są to wideo i grafiki w oczywisty sposób łamiące regulamin serwisu. Meta doskonale zdaje sobie sprawę z tego, że sytuacja jest poza kontrolą, czego dała świadectwo w 2021 roku, publikując plan działania, w którym oznaczyła Etiopię jako kraj wysokiego zagrożenia przemocą, oceniając własne możliwości ingerencji jako zerowe.

Źródło: Depositphotos

Moderowanie treści nawołujących do czystek etnicznych w Meta jest jak próba przelewania wody dziurawym wiadrem. To właśnie ta bierność wobec poważnych problemów, których Facebook jest świadomy, ma być głównym oskarżeniem w dłoniach Abrhama Amare. Rzecznik platformy odpowiedział na zarzuty w wypowiedzi dla WIERD:

„Nasza praca w zakresie bezpieczeństwa i uczciwości w Etiopii opiera się na informacjach zwrotnych od lokalnych organizacji społeczeństwa obywatelskiego i instytucji międzynarodowych. Zatrudniamy pracowników posiadających lokalną wiedzę i doświadczenie oraz stale rozwijamy nasze możliwości wykrywania treści naruszających zasady w najpowszechniej używanych językach w kraju, w tym amharskim, oromo, somalijskim i tigrinia” – Sally Aldous, Meta

Piękne słowa, ale tak samo puste jak w przypadku Kenii i Mianmy. Smutna rzeczywistość jest taka, że dla Facebooka liczą się wyświetlenia i kliki, generujące przychody z materiałów reklamowych. A jak idzie im usuwanie dehumanizujących treści? Niech odpowiedzią na to pytanie będzie informacja wprost od Abrhama Amare. Po ośmiu dniach od śmierci jego ojca Facebook przestał mężczyźnie wiadomość, że zespołowi moderatorów udało się usunąć aż jeden post…

Stock image from Depositphotos

Hej, jesteśmy na Google News - Obserwuj to, co ważne w techu