W 2012 r. amerykański Departament Obrony wydał dyrektywę 3000.09 określającą zasady użycia wchodzących na wyposażenie armii systemów autonomicznych i półautonomicznych. Podejście DoD było konserwatywne i ogranicza możliwość podejmowania samodzielnych ataków przez maszyny i AI.
Czas na zmiany
Po prawie dekadzie obowiązywania tych wytycznych z Pentagonu nadeszły sygnały, że Departament chce na nowo przyjrzeć się sprawie i być może coś w tych zasadach pozmieniać. Informacja wyszła od dyrektora Biura Polityki Pentagonu ds. Zdolności Michaela Horowitza. Czy więc nadejdą czasy autonomicznych zabójców, którymi tak często straszy nas tak często Hollywood?
Na dziś... jeszcze nie wiadomo, ale będą mocno zaskoczony, jeśli Amerykanie nie „poluzują” więzów, które wtedy nałożyli na sztuczną inteligencję. Powodem nie będzie jednak jakaś krwiożerczość US Army, co raczej konieczność dostosowania się do kierunku, którym podążają przede wszystkim Chiny. Nie jest tajemnicą, że na rozwój algorytmów SI, w Państwie Środka bardzo mocno stawiają.
Dlaczego muszą nadejść?
Dziś, amerykański pojazd autonomiczny, który np. straci łączność z operatorem, nie ma prawa sam wybrać celu i zaatakować. Atak jest możliwy tylko wtedy, gdy cel został już wcześniej wyznaczony przez uprawnionego do tego człowieka. To mogło być wystarczające w czasach, gdy takie urządzenia były nowinkami i było ich niezbyt dużo.
Szybki rozwój znaczenia tej grupy sprzętu w ostatnich latach oznacza, że w systemach zarządzania polem walki trzeba będzie nadzorować ich coraz większe ilości. Przy jednoczesnym przyśpieszaniu procesów decyzyjnych, takie ręczne sterowanie, nawet mocno okrojone do kluczowych akcji, może stać się po prostu niemożliwe. A z każdym rokiem będzie ich tylko więcej i to na każdym, nawet najniższym szczeblu armii.
Na dzisiejszym polu walki rośnie też znaczenie nowoczesnych środków walki elektronicznej. To może mieć ciekawe konsekwencje. Jeśli naszemu przeciwnikowi uda się zakłócić łączność na danym terenie, a nasze drony nie będą posiadać autonomii umożliwiającej podjęcie samodzielnych ataków, może to oznaczać spore problemy. AI może w takiej sytuacji ograniczać skuteczność WRE.
Także mocne, szczególnie w ostatnich latach, postawienie przez mocarstwa na rozwój broni hipersonicznej, może być poważnym impulsem „liberalizacji” wcześniejszych zasad. Gdy ta pojawi się w końcu w „wymarzonej” przez strategów formie, zmusi armie do budowy bardzo szybko reagujących systemów niwelujących to zagrożenie. Tu też AI może być postrzegana, jako potencjalny „game-changer”.
Przygotowanie do zmian
Na razie wypowiedzi Pentagonu są bardzo stonowane, i większy nacisk kładzie się w nich na podkreślenie, że w niektórych rodzajach uzbrojenia zdecydowano się wręcz dołożyć kolejne warstwy kontroli. Osobiście nie mam jednak złudzeń, że nowe wytyczne, nawet jeśli w niektórych miejscach kontrolę zaostrzą, to w innych ją poluzują. I choć podobno w US Army jest spora grupa „konserwatystów” przeciwna „zabójczym robotom”, to będzie musiała niedługo wywiesić białą flagę.
Jedyną rzeczą, która mogłaby niebezpieczną podróż w tym kierunku opóźnić albo wstrzymać, to niestety poważne wypadki związane z taką samodzielnie decydującą bronią. Jestem pewien, że niedługo o pierwszych takich przypadkach usłyszymy, ale nie sądzę, żeby ich ilość w czasie pokoju osiągnęła poziom wystarczający, do wystraszenia decydentów ze Stanach i Chin. Na ile błędy algorytmów będą groźne dla własnych żołnierzy i cywilów, przekonamy się dopiero w jakimś prawdziwym konflikcie (oby peryferyjnym).
Hej, jesteśmy na Google News - Obserwuj to, co ważne w techu