Felietony

Facebookowi nie wychodzi walka z fake news. Przyczyna? Bardzo smutna

Jakub Szczęsny
Facebookowi nie wychodzi walka z fake news. Przyczyna? Bardzo smutna
8

Facebook. Firma, która wie o swoich użytkownikach niemal wszystko, jest niekwestionowanym gigantem reklamowym i molochem, który dysponuje nielichą sztuczną inteligencją. W głowie może się nie mieścić to, że z pozoru tylko tak proste zjawisko jak fake news nastręcza mu sporych problemów. Ja natomiast zdziwiony nie jestem i sięgam nieco dalej z diagnozą niż kwestie UX/UI.

Serwis Wirtualnemedia.pl napisał bardzo ważny tekst, w którym podejmuje kwestię walki Facebooka ze zjawiskiem nieprawdziwych informacji. Ze źródłowego tekstu można wyczytać, iż po okresie obserwacji dotychczasowej taktyki względem fake newsów, przyszedł czas na weryfikację sposobu walki. Okazało się niestety, że wcześniej stosowane metody nie sprawdzały się w takim stopniu, jakiego by sobie życzył Facebook, który zdaje się poczuwać do odpowiedzialności za informacje, które są umieszczane w ramach serwisu. Nie jest przecież tajemnicą, że Facebook funkcjonuje w branży jako "megawydawca" lub jak kto woli "megadystrybutor".

Taktyka zakładająca oznaczanie artykułów rozpoznanych jako "fake news" za pomocą "flagi" niestety się nie sprawdziła. Problemem okazała się interpretacja tego znaku przez użytkowników. Nie zawsze byli oni w stanie dzięki temu rozpoznać treść, która zawiera potencjalnie fałszywe informacje i w dalszym ciągu dystrybuowali je dalej - tak, jakby wspomnianego oznaczenia w ogóle nie było. Weryfikacja tego faktu pozwoliła na zmodyfikowanie sposobu walki z fake newsami - w przyszłości treści rozpoznane jako nieprawdziwe będą okraszane dodatkowo "powiązanymi artykułami", które konsumentom podsuną informacje pogłębiające dane zagadnienie lub rozprawiające z uprawianą bardzo chętnie przez niektóre media dezinformacją.

Ach, gdyby walka z fake newsami była taka prosta, to już dawno dalibyśmy sobie z nimi radę. Facebook zwyczajnie "coś robi" tylko po to, żeby... "coś robić"

Szczerze, to nie jestem przekonany co do tego, że Facebook wierzy w skuteczność nowej metody. Pewien jestem natomiast tego, że specjaliści giganta społecznościowego doskonale zdają sobie sprawę z tego, że problemem nie jest taktyka walki, wykorzystywane środki, lecz... po prostu ludzie. To użytkownicy platformy Zuckerberga kreują obieg informacji i niestety, ale mają problem z odpowiednią oceną prawdziwości konsumowanych treści.

Przede wszystkim, konsumenci informacji w sieci mają ogromne problemy z weryfikacją źródeł informacyjnych, faktów, a nawet z rozpoznawaniem artykułów sponsorowanych. Jak wskazuje serwis Nauka w Polsce, badanie przeprowadzone przez Stanford History Education Group w USA trwające 1,5 roku (od stycznia 2015) pozwoliło na wyciągnięcie bardzo smutnych wniosków. Uczniowie - uczestnicy badania nie byli w stanie prawidłowo orzec o prawdziwości konkretnego przekazu, ani nie wykazywali umiejętności potrzebnych do zidentyfikowania np. artykułu sponsorowanego. Dlatego też uważam, że podpisywanie każdego wpisu tworzonego we współpracy z reklamodawcą w formie natywnej jest niesamowicie potrzebne, choć niestety nie przez każde medium praktykowane (nielegalnie zresztą...).

Ale mówimy tutaj o uczniach. Brakuje jednak badań, które wskazałyby na podobny problem w innych kategoriach wiekowych oraz wśród użytkowników z innych krajów. Nie trzeba jednak prowadzić badań, żeby wstępnie stwierdzić, że takie zjawisko we wspomnianych grupach również występuje. Porażka Facebooka jak dotąd jest według mnie najważniejszym objawem, że brak refleksji konsumentów treści na temat prawdziwości przekazów to problem globalny. Na jego podwalinach buduje się ponadto polaryzację społeczeństwa, co niestety obserwuję także w Polsce - takie praktyki można wskazać właściwie u wszystkich wydawców informacyjnych w naszym kraju.

Osobnym problemem jest natomiast tendencja użytkowników internetu i konsumentów treści w ogóle do "życia w bańkach informacyjnych". To zjawisko mówi zaś o sytuacji, w której otaczamy się znajomymi o poglądach podobnych do naszych, a ponadto wybieramy takie media, które odpowiadają naszemu światopoglądowi. To z kolei powoduje, że tkwimy w mylnym przekonaniu o absolutnej słuszności naszych postaw oraz o tym, że znajdujemy się w większości (która natomiast implikuje ich prawidłowość... i koło się zamyka). Konsument żyjący w bańce informacyjny i co gorsza - niezdający sobie z tego sprawy nie jest otwarty na inne punkty widzenia.

Taka diagnoza jest bardzo smutna, bo wprost wskazuje na to, że walka z fake newsami jest wręcz... niemożliwa

Mógłbym teraz wiele napisać o konieczności edukowania społeczeństwa, wprowadzania dodatkowych lekcji informatyki, które skupią się na kompetencjach dotyczących weryfikacji prawdziwości przekazów medialnych oraz o możliwych kampaniach społecznych przeciwdziałających fake newsom. Niestety, świat to nie utopia, a ludzkie przyzwyczajenia nie są z gumy. Konsumenci treści są konformistami i dobrze o tym wiedzą wydawcy konstruując linie redakcyjne. W mediach już od dawna nie sprzedają się tylko fakty, ale i emocje - w związku z tym żniwa zbierają serwisy, które są niezwykle zatwardziałe w trzymaniu się jednego, ustalonego sposobu myślenia. A od tego już, niestety droga do rozsiewania fake newsów jest bardzo krótka.

Ponadto, jako osoba pracująca w mediach nie jestem także przekonany do Facebooka jako "sędziego" w kwestiach prawdziwości przekazów medialnych. Serwis Zuckerberga wielokrotnie okazał się wybiórczy w stosowaniu m. in. standardów społeczności. Sam wskazywałem na to, że w stosunku do stron obrażających chrześcijan był nieco bardziej pobłażliwy, niż dla tych, które godziły w uczucia np. muzułmanów.

Hej, jesteśmy na Google News - Obserwuj to, co ważne w techu