Zagrożenie, jakie niosą ze sobą deepfake'i, staje się coraz bardziej palącym problemem - tego nie trzeba mocno udowadniać, wystarczy powołać się na ostatni skandal z treściami tego typu dot. Taylor Swift. Federalna Komisja Handlu USA wprowadza modyfikacje do wcześniej wdrożonych regulacji.
Wkrótce pierwsze tak duże zakazy deepfake'ów. My także takich będziemy potrzebować
Zapowiadane modyfikacje mają na celu ochronę konsumentów przed wyrafinowanymi formami oszustw opartych na wykorzystaniu potencjału sztucznej inteligencji. Dotychczasowe przepisy skupiały się głównie na firmach i instytucjach rządowych, ale teraz czas na rozszerzenie ochrony na wszystkich użytkowników. Działania FTC wynikają z ogromnej liczby skarg na przypadki podszywania się pod inne osoby oraz rosnącego niepokoju wśród społeczeństwa związanego z potencjalnymi szkodami wynikającymi z deepfake'ów. Już teraz stanowią one poważne zagrożenie — stanowią one istotny punkt działalności wszelkiej maści złośliwego oprogramowania lub ataków hakerskich / scamerskich, a ponadto także są bardzo lubianą formą uprzykrzania życia w rękach wszelkiej maści trolli internetowych, którzy ostatnio doprowadzili do wspomnianego skandalu z Taylor Swift na Twitterze.
Polecamy na Geekweek: Oszuści podszywają się pod Booking.com. Uwaga na nowy przekręt
Wśród proponowanych zmian znajduje się rozszerzenie zakazu na firmy oferujące usługi generowania treści przy użyciu AI, jeśli istnieje podejrzenie, że te narzędzia mogą być wykorzystywane do jakichkolwiek metod ataków z wykorzystaniem deepfake'ów. Jest to ważny krok w zapewnieniu większej ochrony przed nadużyciami tego rodzaju technologii. Już teraz mnóstwo narzędzi, które potencjalnie mogą być użyte w celu wygenerowania deepfake'a ma swego rodzaju "bezpieczniki" uniemożliwiające np. wprowadzenie modyfikacji w obrębie twarzy na zdjęciu — mimo tego, że w rzeczywistości taką możliwość posiadają.
Warto podkreślić, że FTC nie tylko reaguje na bieżącą sytuację, ale także działa proaktywnie, aktualizując zasady dotyczące deepfake, aby lepiej chronić zarówno przedsiębiorstwa, jak i obywateli przed skutkami oszustw. Nowe zasady pozwalają na bardziej efektywną walkę z oszustami, umożliwiając między innymi prowadzenie spraw sądowych przeciwko nim oraz zwracanie skradzionych środków poprzez działania związane z wykorzystaniem materiału wygenerowanego za pomocą narzędzia pozwalającego na tworzenie deepfake'ów. Wielokrotnie informowano o próbach wyłudzeń pieniędzy, w których przestępcy używali wizerunków bliskich, czy nawet ich głosów — np. po to, aby uprawdopodobnić porwanie.
Niepokój społeczny związany z deepfake jest coraz większy. Ankiety przeprowadzone w Stanach Zjednoczonych wykazują, że większość ludzi obawia się potencjalnych szkód, jakie mogą wyrządzić fejki tworzone z pomocą AI. Przypadki podszywania się pod znane osobistości czy instytucje rządowe jedynie nasilają obawy społeczne i słusznie powodują, że ludzie mają coraz mniejsze zaufanie do technologii w ogóle, a w szczególności do sztucznej inteligencji, która przecież może być używana do dobrych celów.
Ostatnio nawet dokonano naprawdę zuchwałego wyłudzenia z użyciem deepfake'a. Pracownik instytucji finansowej, któremu podsunięto takie materiały, przekazał niemałą sumę pieniędzy przestępcom. W odpowiedzi na takie przypadki właściwie wszystkie największe firmy technologiczne podjęły wspólną inicjatywę w walce przeciwko nadużyciom z użyciem sztucznej inteligencji. Porozumienie, zawarte przez gigantów takich jak Google, Microsoft czy Meta, ma na celu zwiększenie świadomości społecznej na temat tego typu zagrożeń
Zagrożenie jest niestety realne i trzeba powiedzieć sobie jasno: to, co dzieje się obecnie w USA stanowi pewien trend, który zdecydowanie musi zostać zrealizowany także w Europie, a przede wszystkim w Polsce. To, że jesteśmy od USA daleko, nie oznacza wcale, że tego typu ataki nas nie dotyczą. Wręcz przeciwnie — ze względu na procesy globalizacyjne jesteśmy na nie narażeni dokładnie tak samo, jak każdy inny użytkownik internetu.
Hej, jesteśmy na Google News - Obserwuj to, co ważne w techu