Militaria

Boicie się ChatGPT? U Amerykanów sztuczna inteligencja poleciała F-16

Krzysztof Kurdyła
Boicie się ChatGPT? U Amerykanów sztuczna inteligencja poleciała F-16
Reklama

ChatGPT jest dziś jednym z najbardziej gorących tematów. Na wielu robi wrażenie, równie dużo osób przeraża. Gdzieś głęboko mamy przecież zaszyte obawy zasiane nam przez Hollywood i pisarzy science-fiction. Tymczasem w US Air Force sztuczna inteligencja pilotowała już F-16.

Sztuczna inteligencja i armia

W armiach świata od lat ścierają się trzy główne stanowiska dotyczące wprowadzania sztucznej inteligencji. Pierwsze, dopuszczać, ale tylko do przetwarzania danych. Z niezbędną obecnością AI w tej domenie praktycznie wszyscy się zgadzają, ilość informacji przekazywana z rosnącej w szybkim tempie liczby sensorów jest już dla ludzi nie do ogarnięcia.

Reklama

Największą grupą są ci, którzy optują nie tylko za analizą, ale i ograniczonym kierowaniem pojazdami bojowymi. To ograniczenie polegać ma na pozostawieniu decyzji o zniszczeniu celu w rękach człowieka. Od tego modelu nie ma odwrotu, bezzałogowe drony morskie patrolujące ogromne połacie oceanów czy myśliwce 6 generacji z „lojalnymi skrzydłowymi” bez bardzo szerokiej i uczącej się autonomii nie mają sensu.

Ostatnia grupa to wojskowi, którzy uważają, że nowoczesne maszyny muszą dostać też decyzyjność w całej procedurze ataku. Argumentują tu, że potencjalni przeciwnicy nie będą mieli przed takimi rozwiązaniami oporów, a na polu walki będzie liczyć się każda sekunda. Pozostawienie człowieka w pętli decyzyjnej drastycznie zmniejszy szansę, o ile nie uniemożliwi zwycięstwo takich „połowicznych” maszyn.

Wydaje się, mimo wszystkich wątpliwości etycznych i możliwych konsekwencji, że Ci ostatni mogą mieć rację. W każdym razie Amerykanie od lat testują tego typu rozwiązania, a ostatnio miał miejsce przełomowy test, w którym sztucznej inteligencji pozwolono przejąć całkowitą kontrolę nad specjalnie przygotowanym myśliwcem F-16 i poprowadzić symulowaną walkę.

F-16 AI Edition

Ćwiczenia przeprowadzono w grudniu zeszłego roku w bazie Sił Powietrznych Edwards w Kalifornii. Odpowiadało za nie 412 Skrzydło Testowe USAF, a „koniem roboczym” testu był X-62A Variable Stability In-Flight Simulator (VISTA), głęboko zmodyfikowany przez moją ulubioną agencję DARPA, dwumiejscowy F-16.

W trakcie ćwiczeń trenowano zarówno standardowe przeloty, jak i walczono z symulowanymi przeciwnikiem. Departament Obrony nie ujawnił szczegółów, ale określono, że ćwiczenia były poważnym krokiem w zakresie budowania zaawansowanych zdolności autonomicznych. Urzędnicy ocenili, że całość prac w tym zakresie gwałtownie przyśpieszyła.
W trakcie ćwiczeń trenowano zarówno standardowe przeloty, jak i walczono z symulowanymi przeciwnikiem. Departament Obrony nie ujawnił szczegółów, ale określono, że ćwiczenia były poważnym krokiem w zakresie budowania zaawansowanych zdolności autonomicznych. Urzędnicy ocenili, że całość prac w tym zakresie gwałtownie przyśpieszyła.

Wspomniany F-16 testował wymiennie dwa różne systemy sztucznej inteligencji. Pierwszy to Air Combat Evolution stworzony przez DARPA, drugi to Autonomous Air Combat Operations (AACO) z Laboratorium Badawczego Sił Powietrznych. Konkluzja ma być taka, że autonomiczny myśliwiec jest już dziś zdolny wykonywać mocno skomplikowane misje testowe.

Skynet czy błędy?

Dla osób śledzących tę tematykę, takie informacje nie są zaskoczeniem. Poluzowanie przez Amerykanów, wcześniej konserwatywnych i rygorystycznych, zasad dotyczących autonomii maszyn bojowych, było przecież wprowadzone w takim właśnie celu. Czy więc należy już kupować na zapas puszki z jedzeniem, wodę mineralną i papier toaletowy? Moim zdaniem nie, wszystkie narzędzia wykorzystujące AI z jakimi się spotkałem wyrobiły u mnie przekonanie, że do Skynetu droga jeszcze daleka.

Jeśli czegoś się obawiam, to raczej szeregu kardynalnych błędów popełnionych przez maszyny autonomiczne. Spodziewam się, że w przypadku maszyn wojskowych dostaniemy kilka zaskakujących przykładów „AI Bias”, z których część objawi się dopiero, gdy te osiągną zdolności operacyjne. Ostatecznie wciąż nie wiemy, jak działają sieci neuronowe. To będzie zresztą ciekawy casus, jeśli chodzi o odpowiedzialność za ewentualne wypadki.

Reklama

Hej, jesteśmy na Google News - Obserwuj to, co ważne w techu

Reklama