Gry

DeepMind AI triumfuje. Sztuczna inteligencja pokonała graczy StarCraft II

Artur Janczak
DeepMind AI triumfuje. Sztuczna inteligencja pokonała graczy StarCraft II
13

Wystawienie do walki SI przeciwko profesjonalnym graczom nie jest nową praktyką. Pewnie część z Was pamięta OpenAI, z którym musiał się zmierzyć Danil „Dendi” Ishutin, świetny zawodnik DOTA 2, obecnie będący poza głównym składem Natus Vincere? Jeśli nie, to zachęcam wrócić do tego materiału, link znajdziecie poniżej w tekście. Tym razem padło na dwóch zawodowców sceny StarCraft II. To właśnie oni postanowili pokonać sztuczny twór od Google o dość osobliwej nazwie DeepMind AI. Na ich nieszczęście, wspomniane SI okazało się lepsze.

Mana i TLO kontra „komputer”

Cała akcja może mieć dla Was jeszcze większe znaczenie, głównie dlatego, że jednym z dwóch profesjonalistów był nasz rodak. Grzegorz „MaNa” Komincz reprezentuje barwy zespołu Team Liquid i to właśnie on wziął udział w walce z DeepMind AI. Jako jeden z lepszych graczy dowodzący armią Protossów postanowił zmierzyć się z SI, które wcześniej uczyło się jego zagrywek. Mając odpowiednią ilość danych, sztuczna inteligencja doskonale wiedziała, co musi zrobić, aby MaNa przegrał. Zarówno Grzegorz, jak i Dario “TLO” Wünsch rozegrali pięć spotkań i było to nie lada przeżycie. Gdyby po drugiej stronie był człowiek, mogliby liczyć na podobne techniki, określone ruchy i jakąś powtarzalność w działaniach. Na ich nieszczęście, każdy z meczów wymagał zupełnie nowego podejścia. DeepMind nie było schematyczne i często zmieniało styl, aby rywal nie mógł przewidzieć następnych ruchów.

Jak SI zdobywa wymaganą wiedzę?

Plan treningowy omawianej sztucznej inteligencji można przeliczyć na 200 lat, gdzie jedyne, co wykonała SI to granie w StarCraft II. Nikt nie byłby w stanie czegoś takiego dokonać, a dla “maszyny” to tylko głównie zadanie. Wydawać by się mogło, że taki nieludzki byt będzie przewyższał swoich rywali z krwi i kości pod każdym względem. Chodzi tutaj o ilość akcji na minutę, a także prędkość reagowania na dane wydarzenia. W przypadku DeepMind AI wcale tak nie było. Twórcy wyjaśnili, że APM (action per minute) ich dzieła wynosi średnio 280, a opóźnienie w reakcji to około 350 milisekund. Wyniki te są jedynie nieco powyżej tego, co potrafi „przeciętny” zawodowy gracz. Droga do sukcesu była zupełnie inna i wcale nie trzeba być szybszym “klikaczem”, aby pokonać swojego ludzkiego oponenta.

StarCraft II wymaga kontroli wielu elementów

Jeśli mieliście styczność z omawianą grą, to doskonale zdajecie sobie sprawę, jakie rzeczy trzeba mieć na uwadze, aby wygrać spotkanie. Oprócz podstawowego budynku, mamy multum różnych jednostek, które mają określone zadanie: zbieranie minerałów, atakowanie wroga z lądu lub powietrza, osłanianie innych, leczenie i tak dalej. Dochodzi do tego budowanie kolejnych fortyfikacji, zarządzanie armią, ulepszanie postaci, pojazdów oraz wszystkich budowli. Trzeba pilnować zarówno tego, co dzieje się na ziemi, jak i w powietrzu. Nie zapominajmy o topografii terenu, rozmieszczeniu surowców na mapie i oczywiście, o samym przeciwniku. Główkowania jest tu od groma i jestem pełen podziwu, jak zawodowcy sobie z tym wszystkim radzą. Jedno zawahanie się, głupi ruch, zbytni pośpiech lub źle wykonany atak szybko sprawią, że rywal będzie górą. Gra nie należy do najprostszych, gdyż próg wejścia w trybie sieciowym potrafi być dość wysoki. Profesjonaliści opanowują masę rzeczy do perfekcji, a i tak nie gwarantuje to, że będą w stanie wygrać turniej. Tym większe wrażenie robi sztuczna inteligencja, która poradziła sobie z tym, co oferuje StarCraft II.

Zobacz także: Sztuczna inteligencja pokonuje zawodnika NaVi

DeepMind AI “zachowuje się” jak człowiek

Zamiast skupić się na jeszcze szybszym reagowaniu i wyższym APM, dzieło Google skupiło się na czymś innym. Po pierwsze, zupełnie inaczej odczytuje cały interfejs niż człowiek, który musi wybierać gdzie ustawić w danym momencie kamerę. Choć zachowanie SI i tak bazuje na ludzkich praktykach, działa nieco inaczej. Po drugie, o wiele lepiej wszystkim zarządza. Mowa tutaj zarówno o jednostkach, surowcach jak i wykonywanych ruchach na polu walki.

Dzięki czemu może reagować nieco wolniej niż profesjonaliści, ale mimo to, działania DeepMind AI są bardziej skuteczne. Na końcu trzeba też wziąć pod uwagę, że „maszyna” studiowała to, jak grają wspomniani zawodnicy. Uczyła się ich zagrywek, poznawała dobre i złe strony zastosowanych strategii. Mając taki ogrom danych była w stanie z nimi wygrać. Cały proces był bardzo ciekawy dla uczestników takiej rywalizacji. Grzegorz był pod wrażeniem tego, co potrafi SI.

Podczas meczów była w stanie stosować zupełnie inne strategie pozostając przy tym całkiem „ludzka”, czego Polak się nie spodziewał. Zdał sobie sprawę, że jego gra wymusza na przeciwniku popełnianie błędów i przewidywaniu jego reakcji, co stawia wszystko w nowym świetle. MaNa raz wygrał z maszyną, ale była to nowa wersja, zawierająca „inny interfejs”, gdzie nie wszystko jeszcze jest dopracowane. wersja z ograniczonym polem widzenia. Wcześniej maszyna wiedziała o wszystkim, co działo się na mapie. Kiedy DeepMind musiało przesuwać kamerę, jak człowiek, to sytuacja się zmieniła.

Jestem bardzo ciekaw, czy treningi przeciwko takiemu SI pomogłyby w rywalizacji z innymi zawodowcami? Czy da się nauczyć od maszyny technik, których inni ludzie nie będą się spodziewać? Czysto teoretycznie, jest to możliwe, ale jak to wypadnie w praktyce? Nie zmienia to jednak faktu, że dożyliśmy czasów, gdzie sztuczna inteligencja jest w stanie zarządzać 200 jednostkami na dużej mapie i wyeliminować swojego ludzkiego rywala. Nie jest to żaden Skynet, a jedynie kolejny krok ku „prawdziwym maszynom”. Mecze w StarCraft II to głównie pojedynki 1vs1, ale można również grać 4vs4. Pewnie DeepMind AI nie jest jeszcze na coś takiego gotowe, ale w przyszłości będzie.

Hej, jesteśmy na Google News - Obserwuj to, co ważne w techu