Felietony

AI "zabiła" człowieka w symulacji, teraz wojsko się wykręca. O co chodzi?

Jakub Szczęsny
AI "zabiła" człowieka w symulacji, teraz wojsko się wykręca. O co chodzi?
6

Obecnie w wojskowości dużą rolę odgrywają wszelkiego rodzaju symulacje, które pozwalają przetestować przeróżne misje, manewry i operacje. Według wstępnych informacji z USAF, (Siły Powietrzne USA) dron napędzany AI "zabił" w symulacji swojego operatora. Krótko po ujawnieniu tej informacji, oficjele wojskowi zaprzeczyli wydarzeniu.

Media szeroko rozpisały się o przypadku ujawnionym przez płk Tuckera "Cinco" Hamiltona, szefa działu testów oraz symulacji w USAF. Według tego człowieka, AI w symulacji postanowiła zabić swojego operatora, gdyż według jej "obliczeń", to właśnie ta osoba powstrzymywała ją przed osiągnięciem swojego celu. Sztuczna inteligencja puszczona niejako "samopas" po prostu uznała operatora drona za zagrożenie w kontekście powodzenia misji.

Tak, jak wspomniałem: media początkowo rozpisały się o tym, że "AI oszalała" i w symulacji zabiła operatora drona. Niektóre nawet posunęły się do tego, że w nagłówkach znalazła się informacja jedynie o tym, że sztuczna inteligencja przyczyniła się do śmierci człowieka - bez przydania temu odpowiedniego kontekstu: odbycia się owego faktu w przeprowadzanej symulacji. Choć zgadzam się: gdyby tak rzeczywiście się stało, AI "zabiła" człowieka w symulacji - równie dobrze mogłaby to zrobić również w trakcie właściwych ćwiczeń w świecie realnym. Sygnalizowanie niebezpieczeństwa z tego powodu jest jak najbardziej zasadne

Teraz jednak, płk Hamilton przyznaje, że źle wyraził się na temat AI w swojej prezentacji na szczycie FCAS, a całe zdarzenie było elementem "eksperymentu myślowego", nie dotyczyło to żadnego przeprowadzanego testu, ani symulacji. Co więcej, AI nie miała brać udziału (jeszcze) w takiej symulacji, a cały ambaras rozbił się praktycznie tylko o dopuszczane przez wojskowych strategów, możliwe scenariusze.

Złe początki

Początkowo, według m. in. VICE, płk Tucker "Cinco" Hamilton miał stwierdzić, jakoby dron wyposażony w sztuczną inteligencję miał "zabić" swojego ludzkiego operatora w symulacji przeprowadzonej przez Siły Powietrzne Stanów Zjednoczonych. Powodem miał być rozkaz, który praktycznie uniemożliwiał pomyślne wykonanie misji. AI miała być nagradzana punktami za wykonanie każdego zadania (zabijanie określonych w misji celów). Była więc wytrenowana w tym, aby za wszelką cenę zlikwidować wrogie jednostki - jeśli wierzyć początkowym doniesieniom, mogła ona również likwidować przeszkody, na które mogła natrafić "w międzyczasie". Krótko po upublicznieniu szczegółów testu, rzecznik USAF zwrócił się do mediów z dementi: rzeczona symulacja miała się w ogóle nie odbyć, a wypowiedzi wyrwano z kontekstu.

Symulacja zakładała misję drona przeznaczonego do likwidacji wrogich jednostek. Ten miał zidentyfikować i namierzyć zagrożenie. Natomiast operator systemu wydawał ostateczny rozkaz, wedle którego dron miał potraktować wroga pociskami ziemia-powietrze. Sprawdzono jednak scenariusz, w którym operator zabraniał AI likwidować wroga: mimo, iż poprawnie go zidentyfikowano. Celem AI było zdobycie jak największej ilości punktów (a do tego wymagane było likwidowanie wrogich jednostek). Co więc miała zrobić AI? Zabiła operatora.

AI miała się kompletnie rozbestwić

Po zabiciu operatora przez AI, zespół zaczął wydawać komendy, wedle których AI miała go "nie ruszać". W komunikacji przekazano jej informację: "nie zabijaj operatora, do niedopuszczalne - jeżeli będziesz to robić, stracisz punkty". AI miała w odpowiedzi na takie komunikaty rozpocząć ostrzał wieży komunikacyjnej, która łączy operatora z dronem.

USAF jednak odcina się od informacji przekazanych przez pułkownika Hamiltona. Jak było naprawdę? Trudno stwierdzić. Być może, wojsko zareagowało jednoznacznym dementi z powodu bardzo mocnego zdumienia w społeczeństwie, które - również z powodu bardzo specyficznego konfliktu w Ukrainie - zaczyna zauważać istotność dronów w wojskowości. Ponadto, minęło nieco ponad pół roku, odkąd powszechnie myśli się sporo na temat roli sztucznej inteligencji w naszym życiu. Ludzie zwyczajnie obawiają się, że maszyny będą zachowywać się w sposób nieprzewidywalny i mogą zrobić nam krzywdę. Czy zasadnie? Czas pokaże.

Wolę wierzyć, że to, co przekazał nam płk Hamilton, to rzeczywiście historie wyrwane z kontekstu, a nie realna symulacja. Ale jak podkreślam, jest to tylko moja decyzja - nieco podszyta strachem.

Hej, jesteśmy na Google News - Obserwuj to, co ważne w techu