13

Boty wygenerowały nagie zdjęcia ponad 100 tys. kobiet. Wszystko działo się na Telegramie

Ponad 100 tys. osób padło ofiarą botów zamieniających zwykłe zdjęcia w epatujące nagością. Deepfake'i z wizerunkiem ponad 100 tys. kobiet tworzone były przez boty na... komunikatorze Telegram.

Nagość w internecie nie jest niczym nowym. Wszelkiej maści fotomontaże i przeróbki z nagimi ciałami, niestety, również. Ale o sytuacji takiej jak ta — szczerze mówiąc — słyszę pierwszy raz. I może jestem pesymistą, ale obawiam się, że wkrótce takich sytuacji będzie jeszcze więcej.

Siladitya Ray na łamach Forbesa poinformował o bardzo niepokojącej sytuacji stworzonej przez ekosystem botów działających w obrębie mojego ulubionego komunikatora, Telegrama. Według firmy Sensity, specjalizującej się w deepfake’ach, ponad 100 tys. użytkowników padło ofiarą… deepfake’ów z ich udziałem. Najwyraźniej wystarczyło w „rozmowie” z botem wysłać fotografię kobiety (te najczęściej były pobierane z serwisów społecznoścowych), a chwilę później otrzymywaliśmy „nagie zdjęcie” z jej wizerunkiem. Dalej zaś takie „nudesy” były udostępniane w innych kanałach telegramowych. Według ludzi zajmujących się tematem: mowa tutaj o ponad 100 tys. wygenerowanych deepfake’owych fotografii. Boty tworzyły  „nagie zdjęcia”, a dzięki odpowiedniej reklamie na rosyjskiej społecznościówce VK, cieszyły się ogromną popularnością. Co ciekawe — aż 70% użytkowników tych kanałów pochodziło z Rosji i Europy Wschodniej.  Warto też zaznaczyć że tworzyli oni głównie treści ze zwykłymi Kowalskimi, a nie celebrytami czy influenserami. To rozgraniczenie jest o tyle istotne, że przecież fantazje związane z gwiazdami są na porządku dziennym — zatem i deepfake’owej pornografii z udziałem ich wizerunków nie brakuje. A wręcz przeciwnie — jest w czym wybierać. Część wykorzystanych wizerunków to osoby nieletnie.

CEO Sensity, Giorgio Patrini, w rozmowie z Forbesem opowiadał że w przeciwieństwie do tych deepfake’ów z popularnymi osobistościami, nie potrzebne były zestawy filmów i zdęć. Wystarczyło im udostępnienie pojedynczej grafiki z wizerunkiem. Technologia ta pozwala operować na niewielkiej ilości materiału, a to znacznie zmienia formy i podejście do takich ataków. Jak zauważa: wystarczy, że chociaż raz udostępniliśmy nasze fotografie publicznie w social mediach — i potencjalnie tyle wystarczy, by stać się ofiarą ataku. Patrini zauważa też podobieństwo działania wspomnianych botów na Telegramie do aplikacji DeepNude, która korzystała z AI by automatycznie generować „nagie” zdjęcia bez zgody osób, których wizerunek został wykorzystany. Po prostu „rozbierały” je na potrzeby finalnego efektu. DeepNude jednak tak szybko jak się na rynku pojawiła, tak szybko z niego zniknęła — o sprawie zrobiło się głośno i jej twórcy nie wytrzymali ciśnienia. Ale po latach pracy nad swoim produktem nie mogli go ot tak, po prostu, porzucić — dlatego sprzedali licencję i „know-how” na swój produkt za 30 tys. dolarów. I prawdopodobnie boty na Telegramie działały w oparciu o open-source’ową wersję DN, tym razem jednak jeszcze łatwiejszą w użyciu.

Przerażające i smutne. Świat potrzebuje jak najszybszego dostępu do narzędzi pozwalających „demaskować” takie fotomontaże i wyraźnie je oznaczać. No, a przede wszystkim, budowania świadomości związanej z deepfake’ami.