Sztuczna Inteligencja

Twoi bliscy nie są tymi, za kogo się podają. To AI przeraża

Patryk Koncewicz
Twoi bliscy nie są tymi, za kogo się podają. To AI przeraża
7

Nie potrzebujemy już Black Mirror. Rzeczywistość już dawno dogoniła serial.

Wyobraźcie sobie, że odbieracie telefon i słyszycie głos bliskiej osoby, która błagalnym tonem prosi o pomoc i pieniądze, bo wpadła w poważne tarapaty. W takiej sytuacji nie każdy potrafi zachować zdrowy rozsądek i zweryfikować informacje. W emocjach łatwo podjąć pochopną decyzję, prowadzącą do szybkiego opróżnienia konta. I to właśnie na to liczą oszuści, którzy za pomocą sztucznej inteligencji klonują głos i wykorzystują go do bezwzględnych wyłudzeń.

Uważaj gdzie publikujesz swój głos

Sztuczna inteligencja pędzi jak szalona, a wraz z jej rozwojem pojawią się nowe zagrożenia, które jeszcze do niedawna byłby całkiem niezłym scenariuszem na odcinek Czarnego Lustra. Wystarczy bowiem półminutowe nagranie dostępne w sieci, by cyberprzestępcy mogli bez trudu podszyć się pod dowolną osobę i wykorzystać głos do manipulowania rodziną i bliskimi.

Źródło: Depositphotos

Fakty są niestety takie, że oszustwom najczęściej padają ofiary w podeszłym wieku. Nie inaczej było w przypadku 73-letniej Ruth Card, bohaterki raportu The Washington Post. Do kobiety zadzwonił jej wnuk Brandon i przekazał, że trafił do aresztu bez portfela i telefonu. Ofiara wraz z mężem bez zastanowienia ruszyła do banku, by wypłacić pieniądze, bo przerażony głos wnuka nie budził wątpliwości. Ruth Card wypłaciła 3 tysiące dolarów kanadyjskich (osiągając limit wypłat w tej placówce) i ruszyła do kolejnego oddziału po więcej gotówki. Zanim wypłacili kolejną pulę pieniędzy, kierownik banku poprosił ich do swojego biura. Ostrzegł, że mężczyzna z którym rozmawiali prawdopodobnie nie jest ich wnukiem.

Uważaj gdzie publikujesz swój głos

Według Federalnej Komisji Handlu oszustwa finansowe, polegające na podawaniu się za członków rodziny, były jednym z najpopularnieszych sposobów na wyłudzenia w 2022 roku – doszło do ponad 36 tysięcy incydentów. Wspomniane małżeństwo dowiedziało się od przedstawiciela placówki, że to kolejny przypadek w ostatnim czasie.

Metody stosowane przez cyberprzestępców opierają się na jednej istotnej zasadzie – muszą pozyskać próbkę głosu osoby, pod którą chcą się podszyć. Trudne? Absolutnie nie, bo w sieci bez trudu można znaleźć wywiady, TikToki czy vlogi mniej lub bardziej popularnych osobistości, a tam materiału jest aż nadto. Oszuści używają oprogramowania do generowania głosu, podobnego do aplikacji stworzonej przez ElevenLabs. Za jego pomocą udało się między innymi stworzyć fałszywe wideo z Emmą Watson, która recytuje „Mein Kampf”, przez co na startup wylała się fala krytyki.

Hany Farid – profesor kryminalistyki cyfrowej na Uniwersytecie Kalifornijskim w Berkeley – stwierdził, że wystarczy zaledwie pół minuty nagrania, by AI w mgnieniu oka nauczyło się naśladować głos. Przy użyciu tej metody okradziono rodziców 39-letniego Benjamina Perkina. Tym razem jednak na pierwszą linię wysunął się „prawnik”, który przekazał rodzinie, że syn doprowadził do wypadku samochodowego – jego skutkiem była śmierć amerykańskiego dyplomaty i w konsekwencji osadzenie Benjamina w areszcie.

Źródło: Depositphotos

Ofiary oszustwa zeznały, że syn faktycznie brzmiał nieco dziwnie, ale ani na moment nie wątpili, że rozmawiają z własnym dzieckiem. Dlatego też wypłacili z konta 21 tysięcy dolarów i przelali je przy pomocy „prawnika” na konto kryptowalutowe. Wyobraźcie sobie jakież musiało być zdziwienie obu stron, gdy prawdziwy Benjamin zadzwonił wieczorem do rodziców, będąc całkowicie nieświadomym sytuacji.

Skąd przestępcy wzięli jego głos? Cóż, Perkin wrzucił kiedyś na YouTube film, na którym opowiada o swoim hobby – skuterach śnieżnych. Tyle wystarczyło, by skopiować głos i wyzerować konto rodziców.

Czy to znaczy, że od teraz nie można już ufać nawet własnej rodzinie? Nie, ale zawsze należy zachować ostrożność i podwójnie zweryfikować sytuację, zwłaszcza gdy głos bezpośrednio prosi o przelanie dużych pieniędzy. Nie da się bowiem ukryć, że takie ataki będą pojawiały się coraz częściej, a ewentualne próby uregulowania generatorów głosu nie nadejdą zbyt szybko. Tymczasem sztuczna inteligencja każdego dnia staje się coraz skuteczniejsza – jeśli więc któregoś dnia kumpel zadzwoni do Ciebie z prośbą o wyciągnięcie go z aresztu, to lepiej dwa razy sprawdź, czy aby na pewno rozmawiasz z człowiekiem.

Stock image from Depositphotos

Hej, jesteśmy na Google News - Obserwuj to, co ważne w techu