Social Media

Pozew moderatorów TikToka. Pracownicy narażeni są na makabryczne treści

PK
Patryk Koncewicz
7

Jedna z największych platform społecznościowych skrywa swoje mroczne oblicze, z którym muszą mierzyć się moderatorzy 

TikTok to ściek Internetu, nie bójmy się tego stwierdzenia. Wyewoluował z niewinnej aplikacji muzycznej dla nastolatków w bezdenną studnię natarczywej reklamy, softpornograficznych treści i żenujących, zapętlanych do znudzenia trendów wszelkiej maści internetowych twórców żebrających o atencję. A wszystko to jest zaledwie wierzchołkiem góry lodowej. Prawdziwe oblicze TikToka widoczne jest od zaplecza, a ludzie, którzy mają z nim styczność, borykają się z zespołem stresu pourazowego. Historie moderatorów aplikacji przyprawiają o dreszcze, zarówno z uwagi na styczność z potwornymi materiałami, jak i przez znieczulicę panującą w strukturach firmy.

Śmierć, przemoc i pornografia to codzienność moderatorów TikToka

Dwóch były moderatorów TikToka złożyło pozew przeciwko platformie oraz jej właścicielowi – spółce ByteDance – z powodu notorycznego łamania prawa pracy zagrażającego zdrowiu psychicznemu pracowników. Ashley Velez i Reece Young uważają, że praca moderatora TikToka może prowadzić do traumy, a kierownictwo firmy – pomimo świadomości problemu – nic sobie z tego nie robi. O jakim problemie mowa? Morderstwa, nekrofilia, sceny tortur czy przemoc wobec dzieci to zaledwie ułamek tego, z czym codziennie muszą mierzyć się pracownicy TikToka. Od lipca do września TikTok usunął lub nie dopuścił do publikacji około 91,4 milionów filmów naruszających regulamin serwisu. To zaledwie 1% wszystkich przesyłanych filmów. Moderatorzy donoszą, że spora część z nich to treści niezwykle brutalne, odrażające i traumatyczne rodem z najgorszych czeluści dark webu. Sam kontakt z takimi materiałami może prowadzić do problemów psychicznych i stanów lękowych, a moderatorzy muszą zmagać się jeszcze z samą specyfiką obowiązków. Velez i Young twierdzą, że tempo ich pracy było opresyjne. Moderatorzy pracują po 12 godzin dziennie, oglądając jednocześnie nawet kilka filmów, a na weryfikację szkodliwych treści mają zaledwie 25 sekund. Ponadto narzuca się im skuteczność oceny na poziomie 80%.

ptsd
Źródło: Depositphotos

Szybkie tempo pracy połączone z gorszącymi materiałami skutkują naprawdę toksyczną mieszanką. Niestety z konsekwencjami pracownicy muszą radzić sobie sami. Po pierwsze umowa poufności zakazuje wyjawiania przerażających obrazów, po drugie firma nie oferuje wsparcia emocjonalnego, a ewentualną pomoc specjalisty moderatorzy muszą ufundować sobie na własny koszt. Ashley Velez komentuje sprawę krótko: „Ktoś musi cierpieć i oglądać te rzeczy, aby nikt inny nie musiał”.

TikTok nie uczy się na błędach

Doniesienia Ashley Velez i Reece Young o skandalicznych warunkach stanowiska moderatora w TikToku nie są niestety wyjątkiem. W grudniu pisaliśmy o podobnej sprawie, w której Candie Frazier pracująca na tym samym stanowisku złożyła pozew, oskarżając firmę o te same zaniedbania. Frazier także zmagała się z problemami psychicznymi po długotrwałej ekspozycji na wulgarne i drastyczne treści. TikTok jak widać nie wyciągnął z tamtej sytuacji żadnych wniosków. Wręcz przeciwnie, korporacja dalej uważa, że dokłada wszelkich starań, aby zapewnić podopiecznym komfortowe warunki pracy. Przedstawiciele TikToka w oświadczeniu dla NRP stwierdzili, że firma dąży do stworzenia opiekuńczego środowiska pracy, a dla pracowników przygotowano szereg usług wsparcia psychicznego i emocjonalnego. Cóż, śmiem wątpić.

tik tok
Źródło: Depositphotos

Przypadki udostępnienia makabrycznych zdjęć czy wideo w mediach społecznościowych nie dotyczą jedynie TikToka. Głośną sprawą sprzed kilku lat może niechlubnie pochwalić się Facebook. Platformie Zuckerberga także zarzucano niewystarczające wsparcie emocjonalne dla moderatorów narażonych na gorszące treści. Możemy się zastanawiać, ile jest w tym winy platform i czy faktycznie przełożeni wyzyskują swoich pracowników. Jednak najpierw powinniśmy się zastanowić, co się stało z ludźmi? Skąd tak ogromna, patologiczna i do reszty spaczona potrzeba publikowania przemocy, pornografii czy zoofilii w aplikacji, której głównym targetem są dzieci? Jako globalna społeczność przegrywamy w grze o empatię, stając się pozbawioną uczuć zbitką mięsa i kości. A może zawsze tacy byliśmy i Internet nie ma tutaj nic do rzeczy?

Stock Image from Depositphotos

Hej, jesteśmy na Google News - Obserwuj to, co ważne w techu