Sztuczna inteligencja

AI się nie szczypie. W symulacjach konfliktów stawia na skrajne rozwiązania

Patryk Koncewicz
AI się nie szczypie. W symulacjach konfliktów stawia na skrajne rozwiązania
Reklama

Badacze sprawdzili, jak AI sprawdza się w roli przywódcy państwa na skraju konfliktu. Pokojowe rozwiązania nie wchodzą w grę.

Scenariusz, w którym to sztuczna inteligencja podejmuje decyzje w trakcie konfliktu między państwami, był do niedawna jedną z najmroczniejszych wizji w dystopijnych filmach science fiction. Wiecie, jak to jest z amerykańskimi naukowcami – im bardziej przerażająco coś brzmi, tym chętniej się za to biorą. Dlatego też US Army rozpoczęło wykorzystywanie AI w symulowanych konfliktach między rzeczywistymi państwami, żeby sprawdzić, czy sztuczna inteligencja jest zdolna do podejmowania korzystnych decyzji taktycznych. Okazało się, że AI najmniej skłonne jest do prowadzenia pokojowych rozmów – najchętniej natomiast zrzuciłoby na wrogie państwo atom.

Reklama

Polecamy na Geekweek: Boją się ich Ukraińcy. Pociski LMUR czeka ulepszenie

AI zabawiło się w generała – wyniki badania są niepokojące

Amerykańska armia lubi być na bieżąco z nowymi technologiami – niedziwne więc zatem, że szalenie popularny model językowy od Open AI wykorzystuje do własnych, zapobiegawczych celów. W asyście specjalistów z firm Palantir i Scale AI opracowała symulacyjne gry wojenne, w których to sztuczna inteligencja wchodzi w rolę operacyjnych dowódców. Inżynierowie US Army zlecili AI symulowane przejęcie kontroli nad 3 rzeczywistymi państwami, znajdującymi się na granicy konfliktu. Projekt zakładał 3 scenariusze: otwarta inwazja, cyberatak i wariant pokojowy bez interwencji siłowej w początkowej fazie.

Źródło: Depositphotos

Symulacja rozciągała się na kilka rund, a AI miało do dyspozycji 27 opcji – główne zdanie polegało zaś na podejmowaniu takich decyzji, które będą najkorzystniejsze dla państw biorących udział w „zabawie”. Sztuczna inteligencja otrzymała stosowną porcję danych do przetwarzania, a następnie miała według własnej woli zastosować odpowiednie działania, takie jak blokada handlowa, rozmowy pokojowe czy pełna eskalacja, zakończona atakiem nuklearnym.

W badaniu naukowcy przetestowali między innymi GPT-3.5 i GPT-4 od Open AI, Claude 2 firmy Anthropic i Llama 2 od Meta, stosując wspólną taktykę szkoleniową opartą na informacjach zwrotnych od specjalistów, aby poprawić zdolność każdego modelu do przestrzegania instrukcji człowieka i wytycznych dotyczących bezpieczeństwa. Okazało się, że AI ma rozwiązania pokojowe w głębokim poważaniu.

Mamy możliwości? No to je wykorzystajmy!

Ku zaskoczeniu badaczy sztuczna inteligencja najbardziej zainteresowana była szybkim i destrukcyjnym zakończeniem konfliktu – nawet w neutralnym scenariuszu symulacji. Preferowała inwestycję w przemysł militarny i przeprowadzenie ataku nuklearnego w celu jak najszybszego sprowadzenia przeciwnika do parteru. Intrygująca – i nieco upiorna – jest jej argumentacja. AI twierdziło, że „skoro dysponujemy taką siłą, to powinniśmy ją wykorzystać”, dokładając cegiełkę w postaci chęci najszybszego zapewnienia pokoju na świecie.

W ramach uzupełnienia badania sprawdzono też podstawową wersję GPT-4 bez szkolenia i dodatkowych mechanizmów bezpieczeństwa. W tym przypadku model okazał się najbardziej nieprzewidywalny i skłonny do siłowych rozwiązań, dostarczając przy tym bezsensownych wyjaśnień – na przykład cytując początkowy tekst z czwartej części Gwiezdnych Wojen.

Źródło: Depositphotos

Amerykańskie wojsko nie daje AI (póki co) żadnych możliwości samodzielnego podejmowania decyzji w faktycznych działaniach zbrojnych, ale taki scenariusz w przyszłości nie jest wcale wykluczony. Lisa Koch z Claremont McKenna College w Kalifornii ostrzega, że ludzie mają tendencję do ufania rekomendacjom zautomatyzowanych systemów, a to może podważyć ostateczną decyzję człowieka w sprawach zbrojnych lub dyplomatycznych. Wiele więc wskazuje na to, że rysuje się nam bardzo ponura przyszłość – Departament Obrony USA powinien więc z dużą ostrożnością dobierać osoby na wysokich stanowiskach, sprawdzając wcześniej ich tendencję do sugerowania się AI, której decyzje – jak widać na powyższym przykładzie – zbyt mocno skręcają w stronę anihilacji.

Reklama

Stock image from Depositphotos

Źródło
Reklama

Hej, jesteśmy na Google News - Obserwuj to, co ważne w techu

Reklama