Google

AI może być rajem dla siewców fake newsów. Google chce temu zapobiec

Krzysztof Rojek
AI może być rajem dla siewców fake newsów. Google chce temu zapobiec
Reklama

Jak łatwo jest wprowadzić kogoś w błąd przy użyciu AI? Odpowiedź: bardzo łatwo. Google to widzi i chce temu przeciwdziałać.

Zanim powstał internet, każda społeczność miała miejskie legendy. Kto w Polsce nigdy nie słyszał o Czarnej Wołdze czy o bugu, który miał wyłączyć systemy IT i komputery w roku 2000. Wtedy były to historie w dużej mierze niegroźne i ich celem nie było osiągnięcie jakichś korzyści. Jednak rozwój internetu wychował zupełnie nowe pokolenie, dla którego dostęp do informacji musi być natychmiastowy. W końcu wszystko - od archiwów encyklopedycznych po najnowsze newsy z drugiego końca świata jest dziś na wyciągnięcie kciuka w smartfonie.

Reklama

To z kolei sprawia, że takie elementy jak weryfikacja informacji które do nas trafiają, pomimo, iż od lat mówi się, że weryfikacja źródeł to jedna z najważniejszych kwestii we współczesnym internecie. Niestety, co też pokazała sprawa Ukrainy - jako ludzkość lubimy dzielić się czymś, co wydaje nam się ważne, a fake newsy zazwyczaj tak właśnie wyglądają, więc dzięki social mediom rozchodzą się one z prędkością światła. W tym wypadku AI może bardzo pomóc. W końcu wystarczy wpisać jedną frazę, by wygenerować obrazek, który bez dodanego kontekstu może przekonać widza, że chociażby lądowanie na księżycu było fałszywe bądź, że ziemia jest płaska.

Google to widzi i reaguje. Utrudni okłamywanie przy użyciu AI

Na Google I/O firma poruszyła ważny, ale też - trudny temat. W końcu przyznanie się do tego, że ich własny produkt może być wykorzystany do złych celów nigdy nie jest łatwe i, jak zawsze w takich przypadkach, firma bierze na siebie część odpowiedzialności za to, co dany produkt może zrobić złego. W tym przypadku potencjalne użycie AI do niewłaściwych celów może być bardzo szerokie. Jak pokazały już odkryte przypadki - AI może generować fake newsy w formie obrazów, może pisać wiadomości phishingowe a nawet - złośliwy kod. W jaki sposób Google ma zamiar zapobiec takiemu użyciu ich technologii?

Przede wszystkim, na konferencji dowiedzieliśmy się, że od teraz Google z automatu będzie dodawało do zdjęć metadane pozwalające na sprawdzenie, czy obraz został wygenerowany przez AI. Oczywiście - nie wszyscy się do tego zastosują i nie rozwiązuje to problemu. Dlatego też firma dodaje funkcje pozwalające na dowiedzenie się więcej o każdym obrazie znalezionym w Google Grafika. Za pomocą jednego kliknięcia dowiemy się w jakich miejscach (i w jakim kontekście) dane zdjęcie było już wykorzystanie, co pozwoli na bardzo szybki fact check, jeżeli nie będziemy pewni, czy zdjęcie jest autentyczne.

Drugą kwestią jest dostępność takich narzędzi jak uniwersalny translator czy rozpoznawanie twarzy z użyciem AI. Takie narzędzia mogą zostać bardzo łatwo wykorzystane do tworzenia deepfake'ów i w tym wypadku ciężko o dobre rozwiązanie. Dlatego też Google mocno ogranicza ich dostępność, przekazując je tylko zaufanym partnerom. Nie rozwiązuje to problemu, ponieważ inne tego typu programy są powszechnie dostępne, ale w tym wypadku Google po prostu odpowiada za to, by ich produkt nie zadziałał na czyjąś szkodę.

Jednak chyba najważniejszym i najciekawszym elementem, o którym opowiedziało Google, jest Perspective API. Jak pewnie wiecie, dziś dość łatwo można "ogłupić" modele językowe jak ChatGPT aby zrobiły coś, czego nie powinny, jak chociażby wygenerowały phishingowego maila. Google. wprowadza więc do swojego modelu tzw. testy kontradyktoryjności (adversarial testing) który ma zapewnić, że odpowiedzi generowane przez AI nie będą sprzeczne z prawdą bądź nie będą potwierdzały fake newsów, nawet jeżeli pytanie jest bardzo trudne bądź podchwytliwe. Perspective API jest sposobem na to, by ta technologia trafiła też do innych modeli, jak ChatGPT i pozwoliła na ogólne podniesienie standardów, jeżeli chodzi o konwersacje ze sztuczną inteligencją.

Czy to wystarczy, by sztuczna inteligencja i jej produkty zostały uznane za bezpieczne? W żadnym wypadku i to nawet przez sam fakt tego, że Google nie jest jedyną firmą, która opracowuje takie rozwiązania. Jednak fakt, że już teraz mówi się o bardzo ostrożnym podejściu do AI i nie zakłada się hurraoptymistycznie, że z tej technologii wynikają same dobre rzeczy jest istotne. Póki co bowiem prawo i regulacje w tym zakresie jeszcze nawet nie zaczęły powstawać więc samoregulacja takich firm jak Google i aktywne przeciwdziałanie złemu wykorzystaniu ich produktu jest kluczowe.

 

Reklama

Hej, jesteśmy na Google News - Obserwuj to, co ważne w techu

Reklama