Świat

Królowa Elżbieta II może zatańczyć na TikToku, a i tak nie będziecie w stanie powiedzieć, że to fake

Krzysztof Rojek
Królowa Elżbieta II może zatańczyć na TikToku, a i tak nie będziecie w stanie powiedzieć, że to fake
8

Deepfake jest z nami już od jakiegoś czasu, jednak do tej pory ze względu na swoje ograniczenia był raczej nieszkodliwy. Królowa Elżbieta tańcząca na stole udowadnia, że może być inaczej.

Jeżeli ktoś śledzi, w jakim kierunku rozwija się technologia, zapewne spotkał się z pojęciem "Deepfake". W dużym skrócie - deepfake jest to nałożenie na obiekt bardzo realistycznej symulacji komputerowej w taki sposób, by ciężko było odróżnić, czy mamy do czynienia z oryginałem czy imitacją. W taki właśnie sposób na twarz jednej osoby można nałożyć twarz innej i np. stworzyć wideo, na którym dany polityk, celebryta, czy ktokolwiek mówi i robi rzeczy, których w rzeczywistości nie robił i nie powiedział. Jest to o tyle niebezpieczne, że nie trzeba do stworzenia takiego filmu nie trzeba zatrudniać charakteryzatorów oraz osób o podobnej barwie głosu - wszystkim zajmie się specjalne oprogramowanie. Dlatego też, kiedy pojęcie deepfake przeniknęło do kultury masowej, zaczęto wskazywać na to, jak niebezpieczne jest to narzędzie. Nieco uspokojono się, kiedy pokazano, że choć imponujące, to jest jednak nieidealne i przeciętny widz jest jednak w stanie poznać, z czym ma do czynienia.

Ta niedoskonałość deepfake uspokajała ludzi, że póki co raczej mogą wierzyć w to, co widzą na ekranie i żaden fake news nie zostanie dzięki temu rozpowszechniony na masową skale w najbliższym czasie. Cóż.... jeżeli tak myślicie, radziłbym jeszcze raz się nad tym zastanowić.

Tańcząca Królowa Elżbieta pokazuje, że jednak jest się czego obawiać

25 grudnia, na YouTube'owym kanale Channel 4 pojawił się następujący film:

Widzimy w nim Królową Elżbietę składającą życzenia noworoczne, jednak bardzo szybko idą one w cokolwiek dziwnym kierunku. Oczywiście - już sam tytuł sugeruje, że mamy do czynienia z podróbką, a sam scenariusz jest celowo przerysowany, ale myślę, że gdyby taki film wyemitowano w TV, to przynajmniej do pewnego momentu ludzie byliby przekonani, że oglądają prawdziwą Królową. Przerobiona wersja w oczywisty sposób bazuje na oryginalnym przemówieniu Królowej z zeszłego roku:

To, co udało się tu osiągnąć, jest naprawdę imponujące. Zauważcie, że nie tylko mamy tu ruchomą kamerę, ale też co jakiś czas twarz Królowej jest zasłonięta, bądź się obraca - te sytuacje stanowiły dotychczas największe wyzwanie dla technologii deepfake, jednak tutaj zostało to wyegzekwowane naprawdę dobrze. I tak - mam świadomość, że dla wprawnego oka cały kadr wygląda nieco "sztucznie", ale jak wspomniałem już wcześniej, jeżeli ktoś chce oszukać innych za pomocą deepfake, raczej nie będzie celował w tych, którzy się przyglądają.

Powyższy film na nowo powinien rozbudzić dyskusję o tym, jak niebezpieczny może być deepfake. Technologia poszła do przodu i jestem zdania, że w tym tempie za 2-3 lata powstanie materiał, którego nawet uważny widz nie będzie w stanie odróżnić od oryginału. Oczywiście, są metody, by wykryć chociażby, czy nagranie poddano edycji (chociażby poprzez analizę samego audio), ale jest bardzo wątpliwe, by przeciętny odbiorca miał dostęp do takich narzędzi. Trzeba się więc spodziewać, że niedługo ktoś stworzy deepfake tak realistyczny, że będzie w stanie nabrać na niego sporą część świata.

 

 

Hej, jesteśmy na Google News - Obserwuj to, co ważne w techu