Sztuczna inteligencja

Dooma odpalili nawet na mikrofali, ale takiej wersji jeszcze nie było

Patryk Koncewicz
Dooma odpalili nawet na mikrofali, ale takiej wersji jeszcze nie było

Badacze z Google połączyli Stable Diffusion z autorskim modelem AI – tak oto powstał Doom generowany w czasie rzeczywistym.

Dooma odpalano już na lodówce, mikrofali, zegarku, a nawet teście ciążowym, więc kolejne urządzenia segmentu RTV i AGD nie robią już na nikim wrażenia. Gdy jednak wydawało się, że moda na uruchamianie kultowej strzelanki na dziwnych sprzętach dobiega już końca, sztuczna inteligencja wkroczyła cała na biało, by dołożyć swoje trzy grosze do tego historycznego wyzwania. AI poradziło sobie jednak w wyjątkowy sposób.

Doom generowany w czasie rzeczywistym

Sztuczna inteligencja jest zdolna do wygenerowania kodu, dzięki któremu można stworzyć grywalny tytuł, ale w przypadku Dooma zdecydowano się dorzucić nieco finezji, wykorzystując to, z czego AI słynnie w ostatnich miesiącach – zdolność do generowania obrazów.

Źródło: Depositphotos

Badacze z Google i Uniwersytetu w Tel Awiwie wpadli bowiem na nietypowy pomysł generowania Dooma w czasie rzeczywistym. Zacząć trzeba było – jak to zwykle bywa w przypadku modeli językowych – od bazy danych, którą tym razem wypełniono grafikami z Dooma, a dokładniej klasycznej wersji z 1993 roku.

„Czy model neuronowy działający w czasie rzeczywistym może symulować złożoną grę w wysokiej jakości? W tej pracy pokazujemy, że odpowiedź brzmi „tak”. Szczegółowo udowadniamy, że złożoną grę wideo, kultową grę Doom, można uruchomić w sieci neuronowej”.

Jedno AI gra, drugie tworzy iluzję

Jak to działa? Cóż, w dużym uproszczeniu: gracz przy pomocy kontrolera wykonuje ruch, a model nazywany GameNGen odczytuje dane i na ich podstawie renderuje wynik na ekranie, który – zdaniem AI – powinien się tam pojawić. To grywalna iluzja, sprawiająca wrażenie przebywania w interaktywnym środowisku. W praktyce jednak to coś bardziej jak pokaz slajdów, generowany czasie rzeczywistym z szybkością ponad 20 klatek na sekundę.

Twórcy eksperymentu użyli Stable Diffusion w wersji 1.4, wspierany autorskim AI. Zadaniem drugiego modelu była gra w Dooma oraz rejestrowanie rozgrywki – łącznie 900 milionów klatek. Te zostały następnie przetworzone przez Stable Diffusion i wyświetlone na ekranie, na podstawie danych wejściowych, wprowadzonych przez gracza. Efekty możecie zobaczyć poniżej.

Wprawne oko dostrzeże pewne niedoskonałości i efekt rozmycia, ale zaryzykuję stwierdzenie, że laik nie zwróciłby na to uwagi. Wygląda nieźle, ale warto wspomnieć też o wadach. „Pamięć” modelu obejmuje tylko 3 sekundy, dlatego mogą występować takie zjawiska jak teleportujący się po mapie przeciwnicy, którzy zniknęli i musieli zostać wygenerowani ponownie w innym miejscu. Tu ponownie pojawią się element iluzji. AI może przykładowo „wywnioskować”, ile amunicji zużył gracz, by w następnej klatce wygenerować aktualny stan.

„Pokazujemy, że złożona gra wideo, ikoniczna gra DOOM, może być uruchomiona na sieci neuronowej (rozszerzonej wersji otwartego modelu Stable Diffusion v1.4) w czasie rzeczywistym, przy osiągnięciu jakości wizualnej porównywalnej z oryginalną grą. Chociaż nie jest to dokładna symulacja, model neuronowy jest w stanie wykonywać złożone aktualizacje stanu gry, takie jak zliczanie zdrowia i amunicji, atakowanie wrogów, niszczenie obiektów, otwieranie drzwi”

A teraz wyobraźmy sobie użyteczność takich modeli AI za dwie dekady. Czy to powinien być prawdziwy powód do obaw pracowników gamedevu?

Źródło

Hej, jesteśmy na Google News - Obserwuj to, co ważne w techu