Dezinformacja. Do pewnego czasu ten wyraz kojarzył nam się głównie z nieco staromodnymi już reżimami, które bardzo pilnowały blokady informacyjnej lub umyślnie modyfikowały przekazy: tak, aby pasowały do obowiązującego systemu. W dobie tak bardzo powszechnego internetu dezinformacja nabrała innego wymiaru i właściwie wszyscy jesteśmy jej ofiarami. Pytanie tylko w jakim stopniu.
W trakcie, gdy Henry Ford tworzył pierwszą linię produkcyjną i miał w głowie wizję automatyzacji produkcji samochodów - wielu widziało w tym potencjał. Automatyzacja tak doskonale "ruszyła do przodu", że dzisiaj mówimy o zautomatyzowanych "botach", które w rękach pewnych grup interesów lub współpracujących z nimi agencji mają głównie jeden cel: rozsiewać nieprawdziwe treści. Trafiać do określonych, podatnych na wpływ odbiorców. Czynić fałszywy przekaz popularnym, a tym samym wpływać na jakość dyskursu społecznego. Z dyskursu szybko robi nam się dyskusja, a dyskusja przeradza się w kłótnię. Kłótnia tworzy natomiast szambo, a szambo śmierdzi. I niestety ma znacznie potężniejszy wpływ.
Indiana University odnoszące się do sytuacji w trakcie kampanii prezydenckiej w USA (Trump vs Clinton) przeanalizowało 14 milionów wiadomości na Twitterze publikowanych między majem 2016 a majem 2017. 6 procent wszystkich analizowanych kont zidentyfikowano jako boty - te zaś odpowiadały za 31 procent fałszywego przekazu w trakcie oraz przed plebiscytem. Co ciekawe - wystarczyło 10 sekund na to, aby konkretna treść zaczęła przeskakiwać z konta na konto - doskonale skoordynowane, zautomatyzowane procesy pozwalały na szybkie udostępnienie fałszywego materiału oraz jego uprawomocnienie. Stąd już bardzo niedaleka droga do tego, aby podchwyciły ją również mainstreamowe media, które niestety, ale coraz częściej nie dokonują tak bardzo potrzebnej obecnie weryfikacji materiału.
Owczy pęd oraz sztuczne tworzenie baniek informacyjnych to jedne z ważniejszych powodów, dla których tworzenie się nieprawdziwych treści jest takie skuteczne - zwłaszcza przy tak doskonale rozbudowanych infrastrukturach grup dezinformacyjnych. Ludzie mają tendencję do zawierzania temu, co jest popularne. Czym więcej osób o tym mówi, im więcej jest wzmianek na ten temat - zaczynamy w przekaz wierzyć. A jeszcze jak zaczynają go wykorzystywać inne, znane media: rozpoczyna się efekt kuli śniegowej. Co gorsza - ewentualne korekty, dementi przestają wtedy mieć znaczenie: fałszywy przekaz już został "wypuszczony do świata". To już się stało: konsument treści przeważnie będzie pamiętał tylko pojawienie się wzmianki: choćby była ona fałszywa.
Czy tylko fałszywa treść może zostać tak szybko rozprzestrzeniona przez boty?
Tutaj badacze nie znaleźli żadnego dowodu na taką korelację (fałszywa vs prawdziwa informacja a szybkość rozsiewania się). Zapewne dlatego, że różne grupy interesów poszukują pasujących im materiałów i ich zadaniem jest głównie uczynić je popularnymi: niezależnie od tego, czy ich ładunek jest fałszywy lub też prawdziwy. Jak dla mnie wykazywanie takiej zależności wcale nie było potrzebne, choć gdyby przyjąć odpowiednie hipotezy, takie działanie można byłoby z pewnością obronić.
Ale to nie jedyne przykłady. Użyto również danych pochodzących z wyborów w Hiszpanii, gdzie wysnuto podobne wnioski. Jestem ciekaw jak takie badanie wypadłoby w Polsce, gdzie na pewno doszło do "zanieczyszczenia" internetowego dyskursu materiałami pochodzącymi od botów. Dobrym pytaniem w tym momencie byłoby: "czy kształt parlamentu nie wynika wprost z działalności automatów"?
Hej, jesteśmy na Google News - Obserwuj to, co ważne w techu