Konwersja grafiki 2D na fotorealistyczne 3D wymaga wielu żmudnych godzin ręcznej pracy. Nowy trik sztucznej inteligencji skraca ten proces do zaledwie kilku minut.
Nowy wymiar sztucznej inteligencji. AI przekształca zwykłe zdjęcia w modele 3D
Sztuczna inteligencja jest wykorzystywana powszechnie w wielu otaczających nas aspektach technologicznej rzeczywistości. Towarzyszy podczas grania w ulubione gry, korzystania z aplikacji bankowych czy przeglądania social mediów. Asystent Google, którego zapytałeś dziś o pogodę, również nie mógłby się bez niej obyć. Naukowcy stale więc pracują nad ulepszaniem AI, zaskakując osiągami nawet samych siebie.
NeRF czyli mała rewolucja
Termin sztucznej inteligencji ma na karku już ponad sześćdziesiąt lat. Został sformułowany w 1956 roku przez amerykańskiego informatyka Johna McCarthy’ego. Oznacza on w skrócie zdolność systemu do prawidłowego interpretowania danych z zewnętrznych źródeł i umiejętnego wykorzystania ich do wykonania powierzonego zadania. Ciągłe prace nad zwiększeniem wydajności AI (ang. Artificial Intelligence) są kluczowe dla wielu dziedzin nauki i rozrywki. Dzięki nowym odkryciom generowanie fotorealistycznych obrazów może stać się dużo prostsze.
Testowanie AI pod kątem poprawnego rozpoznawania obrazów ma swoją genezę w akademickich projektach z 2012 roku. Przykładowo, dzięki tym badaniom aplikacje social mediowe dostarczają nam lepsze, bardziej spersonalizowane (czyt. uzależniające) treści. Zasady działania sztucznej inteligencji są luźno oparte na naturalnym pierwowzorze – ludzkim mózgu. Naukowcy stworzyli algorytm inspirowany reakcją neuronów na otrzymywane dane. Dzięki niemu osiągnięto duży skok wydajnościowy w rozpoznawaniu i klasyfikowaniu obrazów wprowadzonych do algorytmu. Nawiązania nie są bezpodstawne. Według profesora kognitywistyki – Josha Tenenbauma – podobne operacje wykonuje mózg podczas rozglądania się.
Ten sam algorytm trenowany jest w celu uzyskania fotorealistycznych obrazów 3D tylko za pomocą analizy dwuwymiarowych grafik. Efektem wspólnych prac uniwersytetów w Berkeley i San Diego oraz badaczy z Google jest projekt Neural Radiance Fields (NeRF). Trzeba przyznać, że zaprezentowana przez naukowców próbka naprawdę robi wrażenie. Zobaczcie sami.
Zalążek nowej rzeczywistości
Algorytm na podstawie światła przemieszczającego się w powietrzu oblicza gęstość i bada kolor punktów w przestrzeni 3D. Dzięki temu konwersja grafik 2D na 3D jest możliwa bez ręcznego działania w specjalistycznych programach. Naukowcy są zachwyceni, widząc w NeRF przyszłość wirtualnej rzeczywistości, autonomicznych pojazdów czy robotyki. Już teraz badacze z Uniwersytetu Kalifornijskiego w Berkeley testują rozwiązania na robotach wyposażonych w sztuczną inteligencję, aby poprawić umiejętność rozpoznawania nieznanych kształtów.
Technologią zainteresowała się już Nvidia. Na swoim blogu opublikowali materiały, w których przerabiają zestaw dwuwymiarowych zdjęć budynku na cyfrowy model 3D. Firma dostrzega potencjał w tworzeniu realistycznych tekstur w grach wideo. Wszystko wskazuje na to, że podobna technologia zostanie użyta do wygenerowania nowej „metaversowej” rzeczywistości Marka Zuckerberga. Meta pracuje bowiem nad własną wersją NeRF’u. Warto wspomnieć, że technologia w obecnej formie ma zaledwie dwa lata i wciąż pozostaje na etapie badań i aktualizacji. Naukowcy jednak zachwalają tempo prac i zaangażowanie międzynarodowych zespołów i firm.
Nie zdziwię się, jeśli podobne rozwiązania za parę lat dostępne będą z poziomu smartfona. Powstała już nawet idea specjalnych selfie nazwanych „nerfies”. Pomysł zakłada generowanie interaktywnych portretów 3D, uzyskanych dzięki konwersji serii zdjęć wykonanej przez algorytm. Być może NeRF okaże się cegiełką, która sprawi, że maszyny staną się jeszcze bardziej „ludzkie”. Elon Musk i jego humanoidalne boty z pewnością nie przejdą obok tego tematu obojętnie. O ironio, robimy wszystko, aby uczynić maszyny bardziej ludzkimi, zapominając przy tym o byciu człowiekiem dla… drugiego człowieka.
Hej, jesteśmy na Google News - Obserwuj to, co ważne w techu