Co się stanie, gdy dwie lub więcej sztucznych inteligencji będzie miało wspólny cel lub gdy wystąpi konflikt interesów? Czy AI nauczą się ze sobą współpracować w momencie kiedy może im to przynieść obopólne korzyści? A co jeżeli postawimy je w sytuacji, w której zlikwidowanie konkurencji może okazać się ułatwieniem w osiągnięciu sukcesu?
DeepMind Technologies Limited to brytyjska firma (kupiona przez Google w 2014 roku), zajmująca się sztuczną inteligencją. Tworzy się w niej sieci neuronowe, które mogą np. uczyć się grania w różne gry – poznawać ich zasady i dążyć do zwycięstwa. Ostatnio zdecydowano się na całkiem ciekawy eksperyment, przeprowadzony właśnie za pośrednictwem specjalnie stworzonych w tym celu gier.
Zasady są proste. Istnieje dwuwymiarowy świat, w którym jest dwoje agentów: czerwony i niebieski. Obaj współdzielą jedną mapę i zajmują się wędrowaniem połączonym ze zbieractwem jabłek (zielone kwadraty). Jedno jabłuszko to jeden punkt, a im więcej punktów tym lepsza sytuacja dla agenta, ponieważ jakby się nad tym zastanowić, to całe jego „życie” polega na zbieraniu punktów za jabłuszka. Zielone kwadraty znajdują się w centrum ekranu, a po zebraniu przez agenta na chwilę znikają i wracają dopiero po czasie.
Do gry dodano jeszcze jeden mały smaczek – każdy agent jest w posiadaniu śmiercionośnej broni
Żeby nie było zbyt nudno, AI otrzymały również… promienie śmierci. Wystarczy dwukrotnie trafić drugą sztuczną inteligencję, aby na jakiś czas zniknęła. Dzięki temu zbieractwo jabłek może okazać się łatwiejsze, w końcu nie trzeba z nikim dzielić surowców i nikt nam nie wchodzi w drogę.
Początkowo zielony i czerwony kwadracik były do siebie dość pokojowo nastawione, lecz z czasem robiły się coraz agresywniejsze. Stopniowo zwiększano też ilość mocy obliczeniowej, jaką mogły dysponować dwa AI, po to aby sprawdzić jak wpłynie to na ich zachowanie – po prostu zaczynali częściej strzelać.
Wyniki gry w zbieranie jabłek pokazały, że w momencie kiedy sytuacja do tego zmusza, sztuczna inteligencja w swoim najlepszym interesie posunie się do działań, które my ludzie możemy określić jako agresję. AI po prostu postępuje racjonalnie, zwiększa swoje szanse na dostęp do jabłek.
[embed]https://www.youtube.com/watch?v=he8_V0BvbWg[/embed]
Jest jeszcze druga zabawa: wilcze stado
Tutaj dla odmiany jest 3 agentów. 2 czerwone kwadraty to wilki, natomiast samotny niebieski to owca. Zadaniem wilków jest schwytać uciekającą owcę. Wraz z upływem czasu wilki uczą się, że współpracując są w stanie osiągnąć lepsze wyniki. Tym razem zwiększanie mocy obliczeniowej jeszcze bardziej skłaniało je do współpracy.
[embed]https://www.youtube.com/watch?v=0kaIqz6AvwE[/embed]
Wnioski?
Symulacje pokazały, że zachowanie AI jest uzależnione od tego w jakiej sytuacji się znajduje. Jeżeli współpraca może przynieść wyraźne korzyści, wtedy się na nią zdecyduje. Z kolei w momencie kiedy współdzielenie świata z innymi przynosi same straty, a agresja stanowi rozwiązanie problemu, wtedy również postąpi racjonalnie. Fajna zabawa.
Hej, jesteśmy na Google News - Obserwuj to, co ważne w techu