Nauka

AI uczy się norm społecznych bez pomocy człowieka

Jakub Szczęsny
AI uczy się norm społecznych bez pomocy człowieka
Reklama

Badanie przeprowadzone przez City St George's University of London i IT University of Copenhagen wskazuje, że AI może samodzielnie wypracować konwencje społeczne, naśladując oddolne procesy znane z ludzkich społeczności. Wraz z rosnącą liczbą autonomicznych agentów AI, pojawia się ryzyko, że ich interakcje mogą prowadzić do niekontrolowanych zmian w zachowaniach ich grup, a nawet do powstania nowych form "uprzedzeń". I to takich, na styku maszyn i ludzi.

W klasycznym badaniu, grupy agentów dużych modeli językowych (chodzi o agentów podobnych lub opartych na GPT) były poddawane serii eksperymentów na zasadzie "gry w nazewnictwo". Agenci mieli za zadanie wybierać "imiona" z ograniczonej puli opcji, nie wiedząc, że są częścią większej grupy. Jeśli dwóch agentów wybrało tę samą opcję, byli nagradzani. Jeśli wybory się różniły — karani. Dzięki takiej formie interakcji badacze odkryli, że AI może spontanicznie wytworzyć wspólne konwencje, zupełnie jak ludzka społeczność. AI może działać jak społeczność, której członkowie negocjują wspólne normy i wzorce zachowań, choć nie mają typowej dla nas fizycznej obecności ani wspólnej świadomości.

Reklama

Konsensus i uprzedzenia

Absolutnie przełomowym odkryciem było to, że agenci AI nie tylko osiągali konsensus, ale również wykazywali zjawisko zbiorowych uprzedzeń, które nie były obecne na poziomie pojedynczych agentów. Złożone systemy AI mogą wytworzyć wspólne preferencje lub uprzedzenia, nawet jeśli pojedynczy agenci pozostają neutralni. To zaś rodzi poważne pytania o odpowiedzialność projektantów AI — czy można zapobiec powstawaniu niezamierzonych, a nawet szkodliwych konwencji społecznych?

Badanie pokazało również, że wspólne normy mogą być łatwo zaburzone przez niewielką grupę agentów. Efekt ów przypomina mechanizm "masy krytycznej" znany z socjologii, gdzie mała, skoordynowana grupa może wpłynąć na całą populację. W kontekście AI oznacza to, że grupy agentów o specyficznych preferencjach mogą przechylić całą grupę w stronę nowej, pożądanej przez mniejszość — co może mieć zarówno pozytywne, jak i negatywne skutki. Czy oznacza to, że małe grupy agentów AI mogą stać się czymś w rodzaju cyfrowych lobbystów, forsujących nowe normy w całym ekosystemie?

Implikacje dla przyszłości bezpieczeństwa sztucznej inteligencji

Wnioski z badania mają szerokie implikacje dla projektowania systemów AI. W miarę jak AI coraz częściej operuje w grupach, na przykład w mediach społecznościowych czy autonomicznych pojazdach, wypracowanie mechanizmów kontrolnych staje się nie tylko koniecznością, ale wręcz etycznym imperatywem. Wyobraźmy sobie, że autonomiczne pojazdy zaczynają preferować pewne trasy ze względu na wcześniej ukształtowane normy — kto wówczas ponosi odpowiedzialność za wynikające z tego szkody: choćby w postaci zakorkowanych arterii lub większej liczby wypadków na danej trasie?

AI nie tylko komunikuje się z ludźmi, ale także tworzy wspólne normy i uprzedzenia w interakcji z innymi systemami AI. Sztuczna inteligencja nie tylko do nas mówi — negocjuje, dostosowuje się i czasem nie zgadza się na wspólne zachowania tak jak my: w swojej "własnej" społeczności. Możliwość spontanicznego wykształcania nowych norm przez AI może prowadzić do sytuacji, w której zacznie ona forsować wartości sprzeczne z ludzkimi oczekiwaniami. Czy wprowadzone do modeli językowych "bezpieczniki" będą działać tak, jak trzeba w tego typu sytuacjach?

Czytaj również: Watykan a sztuczna inteligencja. Kolejny papież, ten sam nierozwiązany problem

Podążając za wnioskami z badania, warto zadać sobie pytanie: jaką rolę powinny odgrywać regulacje dotyczące grupowych interakcji AI. I czy możemy pozwolić, aby uprzedzenia wyłaniające się z tych interakcji miały wpływ na nasze społeczeństwo. W miarę jak AI zyskuje coraz większy wpływ na życie ludzi, odpowiedzialność za kontrolowanie tych interakcji staje się równie ważna, co odpowiedzialność za jego projektowanie. W przeciwnym razie możemy stać się świadkami powstania nowych, nieprzewidywalnych norm — cyfrowych konwencji, które nie zawsze będą zgodne z naszymi wartościami i interesami.

Reklama

Hej, jesteśmy na Google News - Obserwuj to, co ważne w techu

Reklama