Nvidia zaprezentowała nową funkcję, robiącą deepfake... oczu w czasie rzeczywistym. Jak daleko to zajdzie?
Deepfake zaszedł tak daleko, że na tym etapie możemy już przestać nagrywać ludzi
Od lat przyglądamy się temu, jak rozwijają się deepfake'i i w jaki sposób sztuczna inteligencja jest w stanie generować obraz w ogóle. Tylko w ciągu ostatnich dwóch lat przeszło to już przez chyba wszystkie fazy rozwoju. Od technologii w powijakach i komentarzy "przecież nikt się na to nie nabierze", przez naprawdę przekonujące deepfake'i z użyciem bardzo zaawansowanego oprogramowania i moment, w którym ludzie zaczęli rozumieć, że ta technologia może wyrządzić wiele złego, po dzień dzisiejszy, w którym tak naprawdę każdy może zrobić przekonujący deepfake, a specjalne narzędzia do tego są na wyciągnięcie ręki. Co więcej, przez takie projekty jak Midjourney czy ChatGPT rozwój sztucznej inteligencji w końcu zaczyna być dostrzegany przez końcowego konsumenta. Jednak powoli zaczynamy docierać do momentu, w którym SI potrafi zrobić tyle, że w ręce końcowego użytkownika wpada tyle narzędzi, że jakość źródłowego materiału powoli przestaje mieć znaczenia.
Nie patrzysz w obiektyw? Spokojnie, NVIDIA dorobi ci oczy
Nvidia właśnie ogłosiła, że do swojego klienta "Broadcast" czyli zestawu narzędzi dla streamerów dorzuca kolejne narzędzie, które z pewnością przyda się niektórym z nich. Funkcja nazywa się Eye Contact (Kontakt wzrokowy) i robi dokładnie to, co jest napisane w nazwie. Po jej włączeniu aplikacja będzie stale monitorowała obraz z kamery streamera i sprawdzała, czy patrzy on w kamerę. Jeżeli uchwyci, że nie, wygeneruje dokładny obraz jego oczu i nałoży go na jego twarz w taki sposób, by widzowie mieli wrażenie, że patrzy się on dokładnie w kamerę.
Potencjalne zastosowania tej technologii nasuwają się same. Ot chociażby niektórzy YouTuberzy nie będą musieli już zapamiętywać tekstu, który mają powiedzieć, ponieważ będą mogli go czytać z kartki bądź promptera umieszczonego za kamerą, a oprogramowanie wykona resztę roboty. Nvidia twierdzi, że do przygotowania tej aplikacji wykorzystała miliony skanów oczu i typów oświetlenia, by jak najlepiej dopasować wirtualne oczy do naszych własnych, więc dla wielu zapewne zastosowanie tej sztuczki będzie nawet niezauważalne.
Jednak powstaje tu pytanie - po co w takim razie się starać, jeżeli w tym momencie technologia dostępna dla wszystkich jest w stanie stworzyć całe twarze, imitować ruch gałek ocznych czy ust. Jestem ciekawy kto pierwszy wpadnie na pomysł by spróbować nagrać jakiś nieożywiony przedmiot, a następnie, nakładając na niego wszystkie możliwe, dostępne dla wszystkich filtry deepfake, przekształcić go w coś, co ma być nagraniem np. mówiącego człowieka. Jestem przekonany, że coś takiego jest możliwe, skoro dziś wystarczy wpisać kilka fraz, by AI wygenerowała nam piękny obraz.
Czy tego chcemy czy nie, żyjemy w czasach SI. A wektor postępu nieustępliwie skierowany jest do przodu.
Hej, jesteśmy na Google News - Obserwuj to, co ważne w techu