Felietony

Tak wciska się Wam kit w social mediach. Najgorsze jednak dopiero nadejdzie

Krzysztof Rojek
Tak wciska się Wam kit w social mediach. Najgorsze jednak dopiero nadejdzie
4

Dezinformacja i sianie zamętu przy użyciu AI weszło na zupełnie nowy poziom. Ani my, ani social media nie są na to gotowe. Rozpoznanie kłamstwa dziś jest już niemożliwe. A będzie jeszcze gorzej.

Nie wiem, czy część z Was pamięta czasy, kiedy po raz pierwszy zetknęliśmy się z pojęciem deepfake’u. Było to jeszcze w czasach, w których nie robiło się tego przez AI, ale wymagało to pracy całego zespołu grafików. Nie trzeba było mieć dyplomu Oxfordu, żeby zgadnąć, że skoro coś takiego jest możliwe do stworzenia, to jest też możliwe do wykorzystania do celów inne niż tylko poglądowe przedstawienie możliwości technologii.

Polecamy na Geekweek: ESA ma kłopoty z teleskopem ciemnej materii. Potrzebne rozmrażanie

Przez kolejne lata byliśmy świadkami rozwoju kolejnych technologii, czyniących przekaz audiowizualny coraz mniej i mniej wartościowym dowodem na istnienie przedstawionej rzeczy bądź zjawiska. Z czasem dowiedzieliśmy się, że deepfake’i można w relatywnie prosty sposób robić za pomocą AI, a sztuczna inteligencja potrafi nie tylko imitować już głos danej osoby, ale też – wygenerować przekonujące wideo szczegółowe do tego stopnia, że rozpoznanie, iż mamy do czynienia z fejkiem bez uważnego śledzenia detali w superwysokiej rozdzielczości staje się zwyczajnie niewykonalne.

Źródło: Depositphotos

Jeżeli scrollujecie Instagrama czy TikToka, zapewne trafiliście już na „bezpieczne” deepfake’i, gdzie np. politycy tej czy tamtej partii śpiewają viralowe piosenki. Jednak pomyślcie – jeżeli konto mające 100 obserwujących jest w stanie stworzyć coś takiego, to co będzie potrafiła osoba, której zamiary są dużo szerzej zakrojone i której celem jest sianie fermentu i dzielenie społeczeństwa?

Oto, jak jesteście manipulowani. Przed tym nie ma ucieczki

Przeglądając social media, nie poświęcamy jednemu postowi więcej niż ułamek sekundy. Widzimy grafikę, widzimy tekst i to wystarczy, by wywołać w nas emocje. Zobaczymy kilka postów o tej samej treści – tak zaczynają się budować nasze przekonania. Nieistotne czy mówimy tu o przekonaniach politycznych, gospodarczych, czy religijnych. Nie policzę ile dyskusji, które odbyłem, zawierało w sobie „widziałem/am gdzieś na Facebooku”, albo „na Twitterze jest burza” o to czy o tamto. W natłoku informacji nie mamy zazwyczaj czasu na wgłębienie się, zweryfikowanie faktów czy nawet na zobaczenie, na ile to, co widzimy, w ogóle jest prawdziwe.

I oczywiście – manipulacja treścią zdjęć i wideo w social mediach istnieje tak długo, jak istnieją social media, natomiast to, co dzieje się obecnie, nie ma w ogóle porównania do tego, co miało miejsce jeszcze nawet kilka lat temu. Dawniej przygotowanie przekonująco wyglądającego fejka zajmowało godziny, jeżeli nie dni i wymagało przynajmniej podstawowych umiejętności w zakresie grafiki komputerowej. Dziś to dwa kliknięcia. Dzięki temu „moce przerobowe” nawet pojedynczej osoby, która chce wywołać zamęt, są wręcz nieporównywalnie większe, podobnie jak jej skuteczność.

Jak widzicie, pomiędzy akapitami zamieszczam przykłady manipulacji, które powstały z użyciem sztucznej inteligencji i które wywołały olbrzymią dyskusję. Straszne jest to, że duża część tej dyskusji jest dyskusją autentyczną, realną – dyskusją ludzi, którzy nie zdają sobie sprawy, że jej punktem zapalnym jest coś, co zostało w pełni wygenerowane komputerowo. To oznacza, że sprawca osiągnął swój założony cel oraz że, co nie powinno dziwić, taka metoda jest po prostu skuteczna. Jednocześnie z przytaczaniem takich treści wygenerowanych przez AI jest jak z nagrodą dla najlepszego złodzieja. Ta nie jest przyznawana, bo najlepszy złodziej to osoba o której nie wiemy, że jest złodziejem. Tak samo z AI – nie wiemy, jakie są najskuteczniejsze fejkowe treści z wykorzystaniem AI, ponieważ w ich przypadku nie wiemy, że mamy do czynienia z fejkiem.

To dopiero przedsmak. Social media nie są gotowe na manipulacje. My też nie

Pamiętacie czasy sami_wiecie_jakiego_wirusa? Co tydzień informowano wtedy jak platformy jak YouTube, Facebook czy Twitter walczą z dezinformacją odnośnie tej choroby. I co? I tę walkę przegrały, ponieważ nawet kiedy twórcy na YouTube nie mogli już nawet wymawiać tej, kanały antyszczepionkowe hulały aż miło. Teraz wyobraźcie sobie, jak duży problem będzie, kiedy treści AI nabiorą wiatru w żagle.

Już dziś mówi się, że jesteśmy w środku wojny informacyjnej. Wojny, w której aktorzy stosują zawsze ten sam schemat. Celem nie jest tu przeforsowanie jakiejś pojedynczej idei, ale „przyklejenie” się do polaryzującego tematu i sianie zamętu, dzielenie społeczeństwa i podburzanie do działania. Pojedynczy, superkontrowersyjny post zostałby łatwo zaklasyfikowany jako fejk, ale w temacie wojny na Ukrainie, polityki nowej władzy, palących tematach społecznoekonomicznych czy religijnych, posty z kontrowersyjnymi opiniami i fejkami stworzonymi przez AI są „kolejnymi” z wielu i ich skuteczność rośnie diametralnie.

Social media nie mają przed tym żadnej obrony. Na Twittera czy Facebooka można wrzucić dowolne zdjęcie i algorytm nie ma nawet jak sprawdzić, czy mamy do czynienia z treściami AI. Największe firmy jak Google czy Samsung chwalą się, że ich AI generuje metatagi, jednak po pierwsze świat AI się na tych dwóch firmach nie kończy, a po drugie – nie widziałem jeszcze ani jednego przypadku użycia tychże do określenia, że coś jest treścią AI w social mediach. Co gorsza, na największej wylęgarni fake newsów – Twitterze/X – Elon dodatkowo praktycznie zlikwidował moderację w krajach nieanglojęzycznych, więc o ile community notes starają się ją zastąpić, o tyle badania pokazują, że ta platforma wręcz wystrzeliła, jeżeli chodzi o zalew i popularność postów zawierających nieprawdziwe informacje.

Co przyniesie przyszłość?

Wszyscy widzimy, jak treści AI się rozwijają. Dziś wnikliwsi obserwatorzy mogą poznać, że mamy do czynienia z taką grafiką czy nagraniem po błędach, czy charakterystycznych dla AI cechach. Jednak droga od kompletnie nierealistycznych grafik do obecnego punktu zajęła nam mniej niż rok. Dlatego absolutnie nie jest poza granicą wyobraźni przewidywanie, że za rok czy dwa będziemy mieli grafiki, których nawet w przypadku wnikliwej analizy nie będzie można odróżnić od rzeczywistych.

I nie jest tak, że rozwój AI możemy powstrzymać. Nawet jeżeli Google cz OpenAI wprowadzą jakieś ograniczenia, świat nie ogranicza się do „zachodu” i treści będą powstawały. Chciałbym powiedzieć, że w takim wypadku narzędzie do ich rozpoznawania po stronie social mediów jest koniecznością, ale nie łudzę się, by takie coś kiedykolwiek powstało. To z kolei oznacza, że poziom manipulacji (i jej zaawansowanie) jeszcze dodatkowo wzrośnie. Jeżeli nie będzie można odróżnić tych treści, jestem przekonany, że będziemy widzieć AI w fake newsach o coraz mocniejszym i kontrowersyjnym wydźwięku i będą one w coraz większym stopniu odpowiedzialne za sianie chaosu i dezinformacji.

I nic (podkreślam – nic) nie będziemy w stanie z tym zrobić.

Źródło: Depositphotos

Hej, jesteśmy na Google News - Obserwuj to, co ważne w techu