Wywiady

"Gra, w która nie można grać", czyli gigantyczny kot niszczący metropolię w pierwszym polskim benchmarku

Karol Kopańko
"Gra, w która nie można grać", czyli gigantyczny kot niszczący metropolię w pierwszym polskim benchmarku
9

Kiedy myślicie o benchmarku, to przeważnie kojarzy się z nim 3DMark, bo jest najczęściej używany do sprawdzania wydajności komputerów. Kilka tygodni temu swoją premierę miała polska propozycja od twórców AllPlayera, która może ostro namieszać w świecie. Z twórcami rozmawiam o doświadczeniu wyniesion...

Kiedy myślicie o benchmarku, to przeważnie kojarzy się z nim 3DMark, bo jest najczęściej używany do sprawdzania wydajności komputerów. Kilka tygodni temu swoją premierę miała polska propozycja od twórców AllPlayera, która może ostro namieszać w świecie. Z twórcami rozmawiam o doświadczeniu wyniesionym z AllPlayera, modelu biznesowym i skąd w ogóle wziął się wielki kot o destrukcyjnych zapędach w mangowym stylu w polskim benchmarku.

Karol Kopańko: Witam chłopaki. Kto tak właściwie stoi za tym projektem?

Maciek Matuszewski: Geneza w skrócie:

Programista ALLPlayer Group Artur Majtczak zapragnął zrobić taki projekt,  w którym jako obraz chciał wykorzystać gotową produkcję Tomka Bagińskiego z Platige. Tomek stwierdził, że gotowe produkcje się nie nadają, trzeba zrobić obraz od podstaw i zaproponował Michała Staniszewskiego. Michał zrobił silnik, Platige Image grafikę. Arczi złożył w całość i oprogramował.

Artur Majtczak: Geneza wersja dłuższa:

Od wielu lat zajmujemy się odtwarzaczem filmów ALLPlayer który ma ponad 7 mln unikalnych użytkowników. Niestety nie na każdym  komputerze z tych 7 mln użytkowników, nasz program działa poprawnie i nie zawsze wiemy dlaczego; dlatego  powstał pomysł zrobienia programu testującego komputer, a skoro już taki pomysł powstał natychmiast przyszedł do głowy jeden z najlepszych programów testujących, czyli 3DMark.
Po dokładniejszym rozeznaniu sprawy okazało się, że takich programów jak 3DMark nie ma zbyt dużo. Wynika to przede wszystkim z powodu trudności  i kosztów ich wykonania. Nie zniechęciło to nas, a wręcz zmotywowało do próby zrobienia pierwszego konkurencyjnego programu do 3DMarka.
W tym samym czasie od razu pomyśleliśmy, aby jako jednego z testów użyć jednej z najbardziej rozpoznawalnych grafik komputerowych, nominowanego do Oskara filmu „Katedra” Tomka Bagińskiego.Po nawiązaniu kontaktu z Tomkiem okazało się że nie ma możliwości technicznych przeniesienia bezpośredniego Katedry do programu testującego i trzeba będzie pójść trudniejszą drogą...

Jak się szło tą trudniejszą trasą?

Cały projekt mieliśmy rozpisany w harmonogramie, którego się trzymaliśmy.

Jak zachęciliście to projektu Tomka?

Maciek Matuszewski: Nie zachęcaliśmy. Po prostu zadzwoniliśmy do niego z propozycją spotkania, umówiliśmy się i podjechaliśmy opowiedzieć co planujemy.

Dlaczego tak długo czekaliśmy na polską odpowiedź na 3DMarka? Skąd brały się opóźnienia w procesie produkcyjnym?

Maciek Matuszewski: Pomysł narodził się w 2011, realizacja rozpoczęła się w listopadzie 2011 roku, działająca wersja została oddana w grudniu 2012 roku, czyli po roku. Przez około 9 miesięcy obserwowaliśmy działanie i robiliśmy poprawki. Moim zdaniem nie było opóźnień w procesie produkcyjnym. A dlaczego tak długo czekaliśmy na polską odpowiedź na 3DMarka? Hmm…

Jest to trudne i kosztowne przedsięwzięcie. Łatwiej zrobić po prostu inny program. Nie podjęliśmy się tego dlatego, że było to łatwe, tylko właśnie dlatego, że było trudne i niewielu programistów zajmuje się benchmarkami. Wystarczy teraz „tylko” dotrzeć z nim do zainteresowanych użytkowników na całym świecie :)

Artur Majtczak: Program typu 3DMark nie jest programem prostym do zrealizowania z powodu bardzo fachowej wiedzy na ten temat i olbrzymich kosztów takiej produkcji – nie da się takiego programu napisać w „garażu”, potrzebny jest do tego zespół najlepszych z najlepszych.

Nam udało się skompletować taki zespół.

Program był praktycznie gotowy w grudniu 2012 roku, i w tym czasie w wersji beta był pobrany ponad 200.000 razy, ale ponieważ premiera najnowszego konkurencyjnego programu miała mieć miejsce miesiąc później postanowiliśmy poczekać i zobaczyć czy konkurencja nie wymyśliła czegoś nowego, lepszego.

CATZILLA from Platige Image on Vimeo.

Okazało się, że nie tylko nie wymyśliła nic nowego ale nowy test w naszym odczuciu był słabszy i mniej przyjazny użytkownikowi niż poprzednie wydania! ;)

Przy okazji postanowiliśmy ulepszyć opcje rekomendacji czyli podpowiedzi jaki komponent komputera (np. nowa karta graficzna) można kupić (podajemy linki do danej idealnie pasującej do komputera np. karty graficznej na ebay lub allegro) aby łatwo i szybko ulepszyć swój komputer, a także dodaliśmy opcję, za pomocą której możemy sprawdzić czy jakaś najnowsza gra „pójdzie” na naszym komputerze.

Czy możecie zdradzić ile kosztowało wyprodukowanie Catzilli?

Maciek Matuszewski: Ponieważ cały czas inwestujemy w projekt osiągnęliśmy już kwotę siedmiocyfrową. Warte podkreślenia jest, że inwestycje pokrywane są z bieżących przychodów generowanych przez Catzillę.

Czy w pracach pomogło wam doświadczenie z ALLPlayera?

Maciek Matuszewski: Pośrednio tak. Nie tyle z ALLPlayera co szerzej, z programowania,  doświadczenia z działań w internecie i zainteresowania nowymi technologiami.

Skąd pomysł na kocią Godzillę i akurat takie klimaty?

Artur Majtczak: Pomysł Michała, który tworząc gry dla Sony PlayStation jest najbliżej graczy.
Założenia były takie aby stworzyć dynamiczny i współczesny obraz na rynki szczególnie amerykański i japoński co myślę że udało nam się osiągnąć.

Jaka jest ogólna filozofia działania benchmarków i co one sprawdzają?

Maciek Matuszewski: Catzilla  jest oprogramowaniem służącym do testowania i porównywania możliwości komputerów na podstawie badania wydajności procesora i kart graficznych, co ma kluczowe znaczenie przy grach komputerowych z zaawansowaną grafiką. Większość innych benchmarków testuje wydajność kart graficznych.
Artur Majtczak: Każdy benchmark może sprawdzać jeden z komponentów jak np. procesor, pamięć, dysk lub całość tak jak w naszym teście.
O ile sprawdzanie poszczególnych elementów jest opcją typową dla wąskiej grupy fachowców (np. overclokerów) to sprawdzanie całego komputera pozwala nam porównać go do innych i ułatwia wybranie programów idealnie dopasowanych dla naszego komputera.

Dodatkowo wprowadziliśmy pewną nowość, której nie ma w dotychczasowych benchmarkach czyli oznaczenia graficzne (certyfikaty), które dla „normalnych” użytkowników nie mających wiedzy fachowej pozwalają w łatwy sposób określić w skali 12 stopniowej (http://www.catzilla.com/pl/certification) jak dobry jest ich komputer, karta graficzna itd.

Jak odeprzecie zarzuty, że benchmarki są tylko syntetycznymi testami, które nijak mają się do rzeczywistości?

Maciek Matuszewski: Stosujemy te same algorytmy, które są używane w grach dlatego też nasza punktacja bezpośrednio przenosi się na wydajność w grach.

Inne benchmarki nie używają takich algorytmów?

Maciek Matuszewski: Nasz benchmark to taka gra, w którą nie można grać :) Trudno mi mówić o innych benchmarkach, bo w zasadzie interesowałem się tylko liderem – 3DMarkiem. Oni używają jakiegoś autorskiego rozwiązania. Inne benchmarki obejrzałem tylko powierzchownie.

Czy to prawda, że silnik został przygotowany z myślą o next-genach. Dlaczego? Przecież będą to zamknięte sprzęty.

Michał Staniszewski: Specyfikacje next genów sa już od dawna znane i opierają się na specyfikacjach wielordzeniowych PC’tow z GPU kompatybilnymi z DirectX11

Jakbyście skomentowali sprawę, że sterowniki kart graficznych są pisane pod konkretne benchmarki?

Michał Staniszewski: Mimo, ze twórcy sterowników zaprzeczają by robili takie zmiany, to jest to jak najbardziej możliwe. Sterowniki sa w stanie nadpisać nasz kod. Dzieki prostym zabiegom, typu zmniejszanie rozdzielczości tekstur, bufforow czy ilości probek w shaderze, producenci kart sa w stanie zmienić wartości wynikow. Z drugiej strony my nie jesteśmy w stanie zweryfikować w sposób oczywisty, czy sterowniki zostały zmanipulowane czy nie.

Czy na tym da się zarobić? Założę się, że większość sprawdzi tylko komputer w bezpłatnym teście 720p. Jaki macie model biznesowy?

Maciek Matuszewski: Mamy nadzieję, że się da. Produkt jest skierowany głównie na rynek USA, a tam użytkownicy, jeżeli produkt im się podoba, inaczej podchodzą do kwestii płatności. Wprowadziliśmy systemy certyfikacji, rekomendacji softwarowej i hardwarowej.

Sprzedaż PC w 2012 wyniosła 382.6 mln, co daje nam olbrzymi potencjał kilkuletnich PC do zaktualizowania.

Jeżeli na świecie przyjmie się nasz globalny system certyfikacji graficznej będzie można wtedy pomyśleć o opłacie licencyjnej od producentów gier, komputerów i podzespołów komputerowych.

Jak chcecie upowszechnić ten system?  

Maciek Matuszewski: Do tego przydałby się inwestor, który uwierzy w projekt tak jak my. Aby wyjść na świat potrzebne są nakłady na poinformowanie użytkowników o tym, że w ogóle istniejemy (to są kwoty liczone w milionach dolarów). W tym celu byliśmy w kwietniu 2013 z Catzillą w wersji beta w Sillicon Valey USA. Zaliczyliśmy targi GDC, była konferencja Michała wspólnie z Nvidią: https://developer.nvidia.com/sites/default/files/akamai/gamedev/docs/NsightVisualStudio3_Catzilla.pdf

Ogólnie przyjęcie było bardzo dobre. Redakcje US podchwyciły  nasz nowy benchmark do testów sprzętu. (Kupiliśmy kilka czasopism komputerowych z testami Catzilli do własnego archiwum). Obecnie dalej rozwijamy program w kierunku graczy – w finalnej wersji daliśmy możliwość oceny komputera pod kątem uruchomienia najnowszych gier.

Foto

Hej, jesteśmy na Google News - Obserwuj to, co ważne w techu