„Konwencja o zakazie lub ograniczeniu użycia pewnych broni konwencjonalnych” to międzynarodowa umowa z zakresu prawa konfliktów zbrojnych. ONZ próbowało włączyć do niej zakaz stosowania autonomicznych robotów bojowych, ale przegrało... z ludźmi.
Uregulować wojnę
Konflikty zbrojne są tak stare, jak ludzkość. Od zawsze były też pojedynkiem nie tylko ilościowym, ale i jakościowym, w którym technologie potrafiły przechylić szalę zwycięstwa na umiejętnie używającą ich stronę. Długi łuk angielski pokonał nominalnie silniejszych Francuzów m. in. pod Azincourt, rozwój broni palnej bezużytecznymi uczynił tradycyjne rycerstwo, a artyleria pozbawiła znaczenia wcześnie trudne do zdobycia zamki.
Wraz z rozwojem nauki i techniki broń stawała się coraz bardziej śmiercionośna, a zasięg jej działania przekroczył pola bitew. Armie w tym czasie zaczęły też przybierać masowe rozmiary, a połączenie tych elementów zaczęło dawać znacznie bardziej makabryczne skutki niż kiedyś. To z kolei wywołało powstanie silnych ruchów humanitarnych, które próbowały „ucywilizować” wojnę, jakby dziwnie by to nie brzmiało.
Paradoksalnie dla wojska takie ograniczenia również zaczęły być korzystne, mówiąc brutalnie, logistyka związana z zajmowaniem się rannymi, problemy z rosnącymi ilościami jeńców, obawa o los własnych żołnierzy w razie porażki spowodowały, że wojskowi w większości przypadków nie stopowali tych inicjatyw. Jednym z kluczowych konfliktów w tym zakresie była niezwykle krwawa wojna secesyjna.
Najbardziej znanymi porozumieniami tego typu są Konwencje haskie z przełomu XIX i XX w. uzupełniane następnie wraz z rozwojem techniki o kolejne traktaty, protokoły, porozumienia, z których jednym z ostatnich była, również poszerzana w ostatnich latach „Konwencja o zakazie lub ograniczeniu użycia pewnych broni konwencjonalnych”.
Autonomia roboto-żołnierza
ONZ, według którego raportów użycie autonomicznych robotów na sporą skalę miało już miejsce m. in. w Libii, próbuje od kilku lat wprowadzić zakaz wprowadzania na uzbrojenie autonomicznych robotów bojowych, czyli takich które samodzielnie, bez udziału człowiek mogą podjąć decyzję o ataku. Ostatnie spotkanie w tej sprawie miało miejsce w dniach od 13 o 17 grudnia i zakończyło się tak jak wszystkie poprzednie, państwa nie zdołały i wypracować porozumienia.
Algorytmy i sztuczna inteligencja wspomagająca pracę wojska i jej systemów rozwija się już od dłuższego czasu bardzo dynamicznie, ale to czego obawiają się specjaliści, to właśnie słabnący opór wojskowych przed przeniesieniem na maszyny pełnej decyzyjności. Dla wojska duże znaczenie ma szybkość decyzji i wielu dowódców wierzy, że SI da im pod tym względem przewagę. Dla części wojskowych byłoby to też wygodne, ponieważ ściąga z nich osobistą odpowiedzialność za decyzję. Przy pomyłce jaka miała miejsce choćby w tym roku w Afganistanie, gdy zamiast kryjówki terrorystów zbombardowano cywilów można uniknąć wielu nieprzyjemności.
Potrzeba spektakularnej tragedii
Dzisiejsza sztuczna inteligencja, choć rozwija się bardzo dynamicznie i na pierwszy rzut robi duże wrażenie, to wciąż bardzo prymitywne narzędzie, robiąca masę błędów przy praktycznie każdym większym wdrożeniu. Wszelkie, czasem bardzo ciekawe, eksperymenty, w których algorytmy mają podejmować skomplikowane decyzje, wymagają wciąż korekt ludzkich opiekunów. Sporo osób w wojsku najwyraźniej stara się tego nie zauważać, licząc że korzyści będą większe niż zagrożenia.
Osobiście jestem pesymistą, broń tego typu w najbliższym czasie w dużych ilościach będzie trafiać do jednostek i na pola walki. Żeby udało się wprowadzić zakaz jej stosowania będziemy potrzebować czegoś w stylu kolejnego kryzysu kubańskiego, czym w jej kontekście będzie zapewne jakaś ogromna tragedia, gdy w wyniku błędów algorytmu zginie większa ilość cywili (pojedyncze ofiary nic nie zmienią).
Pozostaje mieć tylko nadzieję, że media i opinia społeczna nie łykną wtedy narracji o morderczych maszynach. To nie prymitywne algorytmy będą odpowiedzialne za taką tragedię, tylko ludzie którzy podjeli nieodpowiedzialne decyzje o ich zastosowaniu w praktyce.
Hej, jesteśmy na Google News - Obserwuj to, co ważne w techu