Felietony

Lekceważymy trend na Facebooku. A to spore zagrożenie

Patryk Łobaza
Lekceważymy trend na Facebooku. A to spore zagrożenie
Reklama

Internet od czasu rozpowszechnienia się generatorów AI stał się dziwny. Coś, co dla mnie i dla wielu jest oczywistym "fejkiem", dla innych wygląda zupełnie normalnie. Wyśmiewamy to i ja też jestem tu winny, a powinniśmy z tym walczyć, bo jest to spore zagrożenie.

Nie da się ukryć, że wirtualna rzeczywistość coraz częściej przenika do naszego codziennego życia. Sztuczna inteligencja, która kiedyś wydawała się jedynie futurystyczną wizją, a później co najwyżej ciekawostką technologiczną, dzisiaj generuje obrazy, teksty i interakcje, które potrafią zmylić nawet najbardziej czujnych użytkowników internetu. Niestety, tam, gdzie technologia niesie postęp, rodzą się również nowe formy oszustw i manipulacji. A katalizatorem tych problemów są media społecznościowe.

Reklama

Upiekłem chałkonia, ale jestem ze wsi, więc nikt mi nie pogratulował

Już od jakiegoś czasu na Facebooku pracują grupy, w których zamieszczane są obrazy wygenerowane przez AI – dla mnie (i dla wielu innych użytkowników) już na pierwszy rzut oka różniącej się od zwykłych zdjęć. Działa tutaj efekt doliny niesamowitości, czyli zjawisko, gdy obraz wygenerowany przez sztuczną inteligencję wywołuje odrazę u człowieka. Myślałem, że jest to powszechne odczucie, jednak najwidoczniej nie każdy potrafi się z nim zidentyfikować.

Jednym z przykładów działań takich grup są fotografie przedstawiające starszą kobietę, trzymającą tort urodzinowy, z podpisem sugerującym, że nikt nie złożył jej życzeń, bo jest ze wsi. Brzmi absurdalnie, a wygląda jeszcze gorzej. Jednak pod zdjęciem widzimy tysiące komentarzy od ludzi, którzy, poruszeni historią, ślą życzenia i dobre słowa. Wszystko to wygląda niewinnie – ot, ludzka życzliwość. Jednakże zdjęcia te to dzieło AI, a konta publikujące te posty są podejrzane i mogą być związane z phishingiem lub innymi formami wyłudzania danych i mogą brać udział w szerzeniu dezinformacji.

Schemat działania takich oszustw jest prosty. Najpierw bot publikuje zdjęcie z chwytliwym opisem, który ma wzbudzić empatię lub współczucie. Następnie wchodzi w interakcje z użytkownikami, by zdobyć ich zaufanie. Może to prowadzić do prób wyłudzenia danych osobowych, a w konsekwencji pieniędzy. Szczególnie podatne na takie manipulacje są osoby starsze, które często nie są świadome zaawansowanych metod działania cyberprzestępców.

Potencjalne nadużycia i dezinformacja

Niepokój budzi także potencjał wykorzystania podobnych mechanizmów do wpływania na większą skalę – na przykład na wyniki wyborów. Wyobraźmy sobie scenariusz, w którym sztuczna inteligencja generuje setki zdjęć kompromitujących jednego z kandydatów, które następnie trafiają na platformy społecznościowe. W połączeniu z fałszywymi kontami i botami, które masowo komentują i udostępniają takie treści, można w prosty sposób zmanipulować opinię publiczną. Jeśli ludzie są w stanie uwierzyć w wygenerowane zdjęcie staruszki z tortem albo piekarza z "chałkoniem", co powstrzyma ich przed uwierzeniem w zmanipulowaną historię polityczną?

Nadchodzące wybory prezydenckie mogą być testem naszej odporności na tego typu zagrożenia. Sztuczna inteligencja staje się coraz bardziej zaawansowana, a rozróżnienie fałszywego obrazu od prawdziwego staje się trudniejsze. Kluczową rolę odgrywa edukacja – zarówno młodszych, jak i starszych pokoleń. Musimy nauczyć się, jak weryfikować źródła informacji, rozpoznawać podejrzane konta i unikać angażowania się w treści, które mogą być narzędziem manipulacji.

Sam początkowo myślałem, że treści te wstawiają boty, ale komentują również boty. Jednak po przejrzeniu kilkudziesięciu profili komentujących, wielu z nich to zwykli ludzie z rodziną, dziećmi i wnukami. Nawet w moim najbliższym otoczeniu niektórzy nabierają się na tego typu grafiki i historie w mediach społecznościowych. Starsza osoba z mojego otoczenia pokazała zdjęcie, które ewidentnie było wygenerowane przez AI, jednak ona tego nie była w stanie rozróżnić. A przecież to inteligentna, wyedukowana kobieta, była nauczycielka.

Najgorsze jest to, że jednostkowo ani nawet kolektywnie niewiele można zrobić. Komentowanie takich "fejków AI" nie ma sensu, gdyż niejednokrotnie widziałem pod wspomnianymi postami komentarze osób, które wyjaśniały, że to robota AI, jednak ginęły one w natłoku życzeń i gratulacji za upieczenie chałki w kształcie konia.

Reklama

Główny obowiązek powinien spoczywać na platformach społecznościowych. Facebook zbyt długo pozwala na panoszenie się cyberprzestępców i wyłudzaczy, za co powinien odpowiedzieć z pełną odpowiedzialnością. Następnym krokiem powinno być wprowadzenie skuteczniejszych systemów weryfikacji kont, oznaczanie treści generowanych przez AI czy edukacja użytkowników w zakresie cyberbezpieczeństwa. Bez takich działań ryzyko eskalacji tego problemu będzie rosło.

Reklama

Hej, jesteśmy na Google News - Obserwuj to, co ważne w techu

Reklama