Ciekawostki technologiczne

Deepfake zaszedł tak daleko, że na tym etapie możemy już przestać nagrywać ludzi

Krzysztof Rojek
Deepfake zaszedł tak daleko, że na tym etapie możemy już przestać nagrywać ludzi
Reklama

Nvidia zaprezentowała nową funkcję, robiącą deepfake... oczu w czasie rzeczywistym. Jak daleko to zajdzie?

Od lat przyglądamy się temu, jak rozwijają się deepfake'i i w jaki sposób sztuczna inteligencja jest w stanie generować obraz w ogóle. Tylko w ciągu ostatnich dwóch lat przeszło to już przez chyba wszystkie fazy rozwoju. Od technologii w powijakach i komentarzy "przecież nikt się na to nie nabierze", przez naprawdę przekonujące deepfake'i z użyciem bardzo zaawansowanego oprogramowania i moment, w którym ludzie zaczęli rozumieć, że ta technologia może wyrządzić wiele złego, po dzień dzisiejszy, w którym tak naprawdę każdy może zrobić przekonujący deepfake, a specjalne narzędzia do tego są na wyciągnięcie ręki. Co więcej, przez takie projekty jak Midjourney czy ChatGPT rozwój sztucznej inteligencji w końcu zaczyna być dostrzegany przez końcowego konsumenta. Jednak powoli zaczynamy docierać do momentu, w którym SI potrafi zrobić tyle, że w ręce końcowego użytkownika wpada tyle narzędzi, że jakość źródłowego materiału powoli przestaje mieć znaczenia.

Reklama

Nie patrzysz w obiektyw? Spokojnie, NVIDIA dorobi ci oczy

Nvidia właśnie ogłosiła, że do swojego klienta "Broadcast" czyli zestawu narzędzi dla streamerów dorzuca kolejne narzędzie, które z pewnością przyda się niektórym z nich. Funkcja nazywa się Eye Contact (Kontakt wzrokowy) i robi dokładnie to, co jest napisane w nazwie. Po jej włączeniu aplikacja będzie stale monitorowała obraz z kamery streamera i sprawdzała, czy patrzy on w kamerę. Jeżeli uchwyci, że nie, wygeneruje dokładny obraz jego oczu i nałoży go na jego twarz w taki sposób, by widzowie mieli wrażenie, że patrzy się on dokładnie w kamerę.

Potencjalne zastosowania tej technologii nasuwają się same. Ot chociażby niektórzy YouTuberzy nie będą musieli już zapamiętywać tekstu, który mają powiedzieć, ponieważ będą mogli go czytać z kartki bądź promptera umieszczonego za kamerą, a oprogramowanie wykona resztę roboty. Nvidia twierdzi, że do przygotowania tej aplikacji wykorzystała miliony skanów oczu i typów oświetlenia, by jak najlepiej dopasować wirtualne oczy do naszych własnych, więc dla wielu zapewne zastosowanie tej sztuczki będzie nawet niezauważalne.

Jednak powstaje tu pytanie - po co w takim razie się starać, jeżeli w tym momencie technologia dostępna dla wszystkich jest w stanie stworzyć całe twarze, imitować ruch gałek ocznych czy ust. Jestem ciekawy kto pierwszy wpadnie na pomysł by spróbować nagrać jakiś nieożywiony przedmiot, a następnie, nakładając na niego wszystkie możliwe, dostępne dla wszystkich filtry deepfake, przekształcić go w coś, co ma być nagraniem np. mówiącego człowieka. Jestem przekonany, że coś takiego jest możliwe, skoro dziś wystarczy wpisać kilka fraz, by AI wygenerowała nam piękny obraz.

Czy tego chcemy czy nie, żyjemy w czasach SI. A wektor postępu nieustępliwie skierowany jest do przodu.

Źródło

Hej, jesteśmy na Google News - Obserwuj to, co ważne w techu

Reklama