Bezpieczeństwo w sieci

TVP i najpopularniejszy na świecie YouTuber reklamują hazard? Nie, to nowa metoda cyberprzestępców!

Kacper Cembrowski
TVP i najpopularniejszy na świecie YouTuber reklamują hazard? Nie, to nowa metoda cyberprzestępców!
1

Nie dajcie się nabrać na fałszywe reklamy w Internecie. Cyberprzestępcy wykorzystują wizerunek celebrytów dzięki technologii deepfake!

Zalew fałszywych reklam w mediach społecznościowych. Uważajcie na to, co widzicie w sieci

Marek Czyż, prezenter programu informacyjnego i9:30 TVP, jego wizerunek, logo stacji i programu, a także PKO BP i najpopularniejszy na świecie YouTuber, MrBeast, zostali wykorzystani do bezprawnego promowania aplikacji hazardowej. Cyberprzestępcy za pomocą sztucznej inteligencji stworzyli fałszywe filmy, które pojawiły się w social mediach — i jeśli wchodzicie (nawet nie jakoś szczególnie często) na Facebooka, to z pewnością spotkaliście się już z tym zjawiskiem.

Źródło: ESET, DAGMA Bezpieczeństwo IT

Sprawa stała się już na tyle poważna, że dziś oficjalny raport na ten temat opublikowały firmy ESET oraz DAGMA Bezpieczeństwo IT. Jak możemy się z niego dowiedzieć, „Samotna mama z Warszawy została milionerką dzięki aplikacji blogera Mr Beast” to tytuł jednego filmu przedstawiającego rzekomy materiał z serwisu informacyjnego TVP. Marek Czyż ma w nim zachęcać do pobrania aplikacji hazardowej, w materiale pojawia się także rzekoma zwyciężczyni oraz największy YouTuber na świecie, a dla uwiarygodnienia rzekomych przychodów także wizerunek PKO BP i jego aplikacji bankowej. Film kończy się zachętą do klikania w osadzony w nim link i „wejścia do gry”. Po dokładniejszym obejrzeniu widać jednak pewne niespójności — eksperci zwracają uwagę na to, że „samotna mama z Warszawy” ma mieć na imię Hanah, a jej wypowiedź i pojawiające się na ekranie screeny z aplikacji zawierają błędy językowe) może wskazywać, że oszustwo zostało opracowane przez zagranicznych cyberprzestępców. Warto mieć również na uwadze, że reklamy te pojawiają się także na nieznanym w Polsce medium, które jest za to bardzo popularne w Brazylii.

Źródło: ESET, DAGMA Bezpieczeństwo IT

Cała reklama to oczywiście oszustwo — ale całość wygląda bardzo wiarygodnie

Wypowiedzi Marka Czyża oraz rzekomej zwyciężczyni brzmią naprawdę wiarygodnie, jednak nie mają one nic wspólnego z prawdą. Cyberprzestępcy wykorzystali w tym celu technologię deepfake. Tego typu materiały wykorzystują sztuczną inteligencję do tworzenia filmów lub zdjęć z wizerunkiem wybranych osób, które do złudzenia przypominają prawdziwe. Jak tłumaczą eksperci ESET, filmy stworzone przez AI pozwalają przypisać prawie każdej osobie dowolne słowa, nawet te, których nigdy nie wypowiedziała. Jedynym warunkiem stworzenia takiego materiału jest dostęp do większej liczby autentycznych nagrań wideo i audio z udziałem danej osoby.

Źródło: Depositphotos

To na ich podstawie AI generuje nowy materiał. Osoby publiczne i medialne są więc łakomym kąskiem dla cyberprzestępców wykorzystujących deepfake, ponieważ nagrania z ich udziałem są powszechnie dostępne. Finalnym celem cyberprzestępców sięgających po nowoczesne technologie w ten sposób, jest zwykle wyłudzenie danych lub środków finansowych od nieświadomych użytkowników, a wykorzystanie zaufania, jakim obdarzamy osoby publiczne, to jeden z cynicznych zabiegów. Kliknięcie w takie reklamy, linki, może więc oczywiście skończyć się pobraniem złośliwego oprogramowania, a nawet utratą pieniędzy.

Niestety, deepfake'ów jest i będzie coraz więcej

Należy pamiętać, że w dzisiejszych czasach oszustwa tego typu są coraz częstsze; nawet niedawno było głośno o innym o filmie, w którym cyberprzestępcy również wykorzystali wizerunek najpopularniejszego na świecie YouTubera. Fałszywy MrBeast oferował wtedy nowe iPhone'y za 2 dolary. Swoich deepfake’ów doczekały się również gwiazdy BBC — Matthew Amroliwala i Sally Bundock, a nawet sam Elon Musk, który został wykorzystany do promowania rzekomej okazji inwestycyjnej. Kamil Sadkowski, analityk laboratorium antywirusowego ESET, mówi:

Jeszcze kilka lat temu demaskowanie sfabrykowanych filmów i obrazów było stosunkowo proste, ale z biegiem czasu stało się znacznie trudniejsze. Obecnie coraz trudniej stwierdzić czy dany materiał jest wytworem AI. Narzędzia do tworzenia materiałów deepfake są na wyciągnięcie ręki dla każdego cyberprzestępcy. Bardzo szybko rozwija się technologia związana z klonowaniem głosu.

Oszustwa z wykorzystaniem wizerunku znanych osób to jeden wątek, a drugim jest możliwość fabrykowania nagrań z udziałem użytkowników prywatnych. Dostarczanie materiałów do nagrań deepfake to bowiem zagrożenie związanie z korzystaniem z mediów społecznościowych, o którym rzadko myślimy. Nie dotyczy ono tylko twórców internetowych i celebrytów. Wiele osób, przez lata publikowało materiały wideo, które obecnie mogą posłużyć do kradzieży naszego wizerunku i tworzenia fałszywych wypowiedzi. W ten sposób można oszukać np. naszych najbliższych, a nawet zniszczyć naszą reputację.

Niebawem może okazać się, że szantaże czy oszustwa poprzez filmy będą równie częste jak tzw. kradzież „na wnuczka”. Dlatego tak ważne jest dokładne filtrowanie treści, jakie wrzucamy do internetu, a także weryfikowanie informacji, nawet tych z udziałem osób, które znamy lub którym ufamy. Bardzo ważne jest też, żeby jak najwięcej osób miało świadomość tego, że nie wszystkie materiały wideo w sieci są prawdziwe. Rozmawiajmy o tym z dziećmi, osobami starszymi i każdym, kto nie ma wystarczającej wiedzy o świecie cyfrowym.

Źródło: Depositphotos

Źródło: ESET, DAGMA Bezpieczeństwo IT

Stock Image from Depositphotos

Hej, jesteśmy na Google News - Obserwuj to, co ważne w techu