sztuczna inteligencja
8

Sztuczna inteligencja będzie mieć niecodzienne zadanie. Będzie wykrywać pociski atomowe

Broń masowego rażenia, a w szczególności pociski nuklearne to nie tyle ogromne zagrożenie dla naszej cywilizacji, co straszak, do którego uzyskania dąży wiele krajów. Korea Północna dopięła swego - dzięki izolacji, agresywnej polityce zagranicznej oraz ogromnym środkom przeznaczanym na wojsko otrzymała status "mocarstwa atomowego". I chyba właśnie dlatego Pentagon postanowił wykorzystać sztuczną inteligencję do ochrony USA.

Pentagon opracowuje sztuczną inteligencję, która będzie w stanie wykryć pociski nuklearne wymierzone w USA jeszcze przed tym, jak zostaną one wystrzelone. Jeżeli badania się udadzą, to z pewnością będzie to krok milowy w próbach skonstruowania „tarczy antyrakietowej” nowej generacji – opartej na analizie danych oraz predykcji, zamiast na działaniach w czasie rzeczywistym.

Obecnie, problemem w zakresie ochrony przed atakiem nuklearnym jest fakt, iż nie ma obecnie wysoce skutecznej techniki przechwytywania / zestrzeliwania międzykontynentalnych pocisków balistycznych wyposażonych w głowice atomowe. Oczywiście, można próbować, ale nikt nie gwarantuje sukcesu – dodatkowo takie działania są okupione bardzo wysokim procentem niepowodzenia. A w sytuacji wojny nuklearnej może to mieć ogromne znaczenie. Dlatego też, znacznie prościej jest powstrzymać agresora jeszcze przed wystrzeleniem pierwszego pocisku. Kolejnym problemem jest jednak to, że nawet dysponując zdjęciami satelitarnymi Ziemi, czas oceny aktywności militarnej jest stosunkowo długi.

sztuczna inteligencja

Sztuczna inteligencja ma być wytrenowana w znajdowaniu oznak przygotowania ataku rakietowego

Jeżeli uda się stworzyć taką AI, to ludzie będą mieć nieco mniej roboty: zdjęcia satelitarne będą trafiać wprost to maszyny, która będzie analizować ujęcia pod kątem aktywności obcych wojsk. Jeżeli zostanie wykryte coś jednoznacznie wskazującego na rychły atak z użyciem pocisku balistycznego, wdrożone będą działania prewencyjne – oczywiście wycelowane w zniszczenie wrogich, niebezpiecznych instalacji. Mówi się jednak o tym, że ludzie w dalszym ciągu będą potrzebni, głównie do tego aby korygować błędy maszyny. Ta bowiem może się pomylić i bardzo chętnie przytacza się tutaj przykład podpułkownika Stanisława Pietrowa, który najprawdopodobniej uratował świat przed wojną jądrową. Ten bowiem zbagatelizował wskazania aparatury, która informowała o ataku na ZSRR. Miał rację, bo cała akcja okazała się błędem maszyny: mimo wszystko, za złamanie regulaminów spotkał się represjami.

Miecz obosieczny

O ile samo wykorzystanie AI w tej kwestii jest zrozumiałe i godne pochwały, tak już należy wspomnieć o tym, że takie działanie może mieć charakter miecza obosiecznego. Bo skoro obce państwa będą wiedzieć o takim mechanizmie w posiadaniu USA, to będą starać się kamuflować tereny lub instalacje przynależące do infrastruktury ofensywnej. A wiele razy już udowodniono, że sztuczną inteligencję można oszukać – w przypadku znaków drogowych i systemów odczytywania znaków wykazano to dobitnie. Sztuczna inteligencja będzie więc wymagała stałego treningu.