Sztuczna inteligencja ma przewidywać przyszłość dla armii. Zaawansowana analiza to jedno, decyzyjność... oby algorytmy nigdy jej nie dostały.
W „Raporcie mniejszości” Philip K. Dick opisał system zapobiegania przestępstwom oparty na wizjach grupy jasnowidzów. Dzięki ich wizjom władzom zapobiegały zbrodniom i jeszcze przed ich popełnienim aresztowały ich „sprawców”. Dziś nad systemem mającym dawać podobne efekty, tyle że na poziomie geopolitycznym i militarnym pracuje Pentagon. Oczywiście nie korzysta z pomocy jasnowidzów, tylko sztucznej inteligencji. Mam nadzieję, że będzie to zawsze narzędzie wyłącznie wspomagające i nigdy nie dojdzie do sytuacji, aby algorytm mógł decydować o czymkolwiek samodzielnie.
Jak to działa?
Badania nad systemem przewidywania przyszłych wydarzeń prowadzone są pod nazwą Global Information Dominance Experiments (GIDE). Jak to ładnie określił generał sił powietrznych Stanów Zjednoczonych Glen D. VanHerck, system ma „zwiększyć przestrzeń decyzyjną dla dowódców od poziomu taktycznego do poziomu strategicznego, ale też dać większe pole decyzyjne naszym cywilnym przywódcom”.
Jak widzicie, jego celem nie jest łapanie kieszonkowców, czy zapobieganie morderstwom, ale przewidywanie rozwoju wydarzeń na poziomie geopolitycznym, umożliwiając politykom i wojskom Stanów Zjednoczonych reagować ze znacznym wyprzedzeniem.
Czym algorytm będzie się karmił? Wszystkim co wojsko zdoła zebrać, raportami wywiadowczymi, odczytami satelitów, radarów, przeróżnych czujników. Jako przykłady podano rzeczy bardziej oczywiste, jak ruchy okrętów, jak i mniej, na przykład natężenie ruchu samochodowego przy bazach wojskowych, czy wszelkie dane wskazujące na większą aktywność ośrodków badawczych. Wojskowi stwierdzili, że już dziś analizy niektórych elementów trafiają na biurka po paru minutach, a nawet w czasie rzeczywistym, podczas gdy kiedyś były to dni lub tygodnie.
Człowiek decyduje
Siły Stanów Zjednoczonych podały, że zakończono już trzy fazy tych eksperymentów, a obecnie rozpoczynana jest czwarta. Wojskowi, podobnie jak w każdym projekcie, w którym wykorzystywana jest sztuczna inteligencja, podkreślają że wyniki jej analiz mają tylko pomocniczy charakter. W systemie nie ma żadnej „automatyki”, decyzję podejmuje za każdym razem dowódca lub urzędnik.
Wojsko twierdzi, że takie systemy będą w ich ocenie prowadzić na dłuższą metę do szybszej deeskalacji w czasie kryzysów, dzięki możliwości szybkiej reakcji i zastosowania odpowiednich technik odstraszania.
Mnie osobiście wydaje się, że wraz ze wzrostem skuteczności algorytmów, równie dynamicznie zaczną rozwijać się, również wspomagane przez sztuczną inteligencję, nowoczesne techniki typu MILDEC (czy też z rosyjska maskirowki). Efektów takiego pojedynku, szczególnie na linii systemów najbardziej rozwiniętych państw, na dziś nie da się przewidzieć.
Niekończący się wyścig
Ten pojedynek jest zresztą tak stary, jak wojna. Jednocześnie rozwój technologii wcale nie gwarantuje, że przewagę zdobywa strona analityczna. Przekonała się o tym choćby III Rzesza w czasie II Wojny Światowej, kiedy Alianci przygotowali Operacje Fortitude, tworząc na masową skalę fałszywe czołgi, samoloty, statki, a nawet armię „dowodzoną” przez gen. Pattona.
Dziś, w świecie satelitów i dronów będzie to oczywiście trochę bardziej skomplikowane, z pewnością oszukiwanie nowoczesnych sensorów będzie trudniejsze, niż kiedyś obserwatora i kliszy, ale technika zawsze działa w dwie strony. Dlatego mam nadzieję, że wojskowi dotrzymają słowa i wyłącznie wstępna analiza pozostanie w „rękach” algorytmów. Pouczający jest tu słynny casus Stanisława Pietrowa, który w 1983 r. zapobiegł wybuchowi wojny jądrowej, która mogła nastąpić w wyniku błędu systemu wczesnego ostrzegania.
Źródło: [1]
Hej, jesteśmy na Google News - Obserwuj to, co ważne w techu