Sztuczna Inteligencja

Forum, które tak kipi hejtem, że uczone tam AI potrafi jedynie siać nienawiść

Patryk Koncewicz
Forum, które tak kipi hejtem, że uczone tam AI potrafi jedynie siać nienawiść
Reklama

YouTuber szkolił AI na toksycznym forum 4chana. Zrodzony w ten sposób bot stał się szokującym siewcą nienawiści

Pisałem niedawno o eksperymencie na sztucznej inteligencji, która korzystając z puli komentarzy użytkowników Reddita miała samodzielnie wyrażać opinię o przedstawionych sytuacjach z życia. Badanie pokazało, że AI bardziej skłania się ku byciu wrednym i toksycznym, niż życzliwym i pomocnym. W sumie nie jest to dziwne, w końcu uczy się od najgorszych, znaczy… od użytkowników Internetu. Skoro sztuczna inteligencja woli czerpać szkodliwe wzorce, to dlaczego nie pójść na całość dając jej to czego oczekuje? Pomyślał youtuber Yannic Kilcher, tworząc maszynę do nienawiści.

Reklama

„Model dobry w okropnym sensie”

Na znanym forum 4chan znajduje się owiane złą sławą podforum /pol/. Co się tam znajduje? Śmietanka Internetu. Antysemityzm, mizoginia, rasizm, homofobia i wszystko to, co niedowartościowane trole lubią nazywać tematami „niepoprawnymi politycznie”. I właśnie w tym patologicznym środowisku przyszedł na świat bot GPT-4chan. Trochę to niemoralne, ale czego nie robi się w imię nauki. Trzeba jednak przyznać, że AI odnalazło się w tym ścieku zaskakująco dobrze, ucząc się czystej podłości na podstawie 3,3 miliona wątków. Wyniki przerosły chyba nawet samego autora, który nazwał stworzonego przez siebie bota „najstraszniejszym modelem w Internecie”.

Źródło: Depositphotos

GPT-4chan został aktywowany w dziewięciu instancjach, które funkcjonowały w /pol/ przez 24 godziny. Efekt? Około 15 tysięcy publikacji przesączonych jadem, nienawiścią i teoriami spiskowymi. Wypociny bota były nie do rozróżnienia od postów „ludzkich” użytkowników i stanowiły ponad 10% wszystkich publikacji zamieszczonych w podporum. Sam Kilcher stwierdził, że jego dzieło jest „dobre w okropnym sensie”. W zasadzie można powiedzieć, że algorytm spełnił swoje zadanie na ocenę celującą, o ile oczywiści można tak powiedzieć o nauce najbardziej podłych i toksycznych zachowań. Entuzjazmu nie podzielają jednak specjaliści branży, którzy w eksperymencie widzą zagrożenie.

Etyczne niebezpieczeństwo

Naukowy zajmujący się sztuczną inteligencją nazywają bota GPT-4chan „nieetycznym”.

„Ten eksperyment nigdy nie przeszedłby przez komisję etyki badań na ludziach” – Lauren Oakden-Rayner, dyrektor badań obrazowania medycznego w Royal Adelaide Hospital

Według badaczy eksperyment został bezpodstawnie przeprowadzony na ludziach bez niezbędnego poinformowania i nadzoru, co narusza zasady etyki. Model nienawistnego bota był dostępny do pobrania w Hugging Face – witrynie społeczności skupionej wokół sztucznej inteligencji – jednak zaniepokojeni naukowcy zainterweniowali, domagając się usunięcia GPT-4chan. Serwis zablokował bota, jednak zdecydował się go nie usuwać pod warunkiem, że opis będzie zawierał wyraźne ostrzeżenie.

Kilcher stwierdził, że jest youtuberem, a nie naukowcem i stworzenie bota miało być tylko niewinnym żartem. Ponadto zaprasza na niesławne forum /pol/, gdzie badacze znajdą treści o wiele gorsze niż to, co publikował jego bot. Toksyczne zachowania bota w żaden sposób nie wpłynęły na użytkowników 4chana, ciężko było wręcz odróżnić je od standardowej treści, która pojawia się w wątkach.

Źródło: Depositphotos

Arthur Holland Michel – badacz sztucznej inteligencji – uważa, że bota można wykorzystać do masowej kampanii siania nienawiści, co autor kwituje jako „niejasne hipotetyczne oskarżenia, bez żadnych rzeczywistych przypadków ani dowodów”. Według Kilchera bot nie jest w stanie tworzyć ukierunkowanych kampanii, bo został zaprojektowany tak, aby pleść nieskoordynowany hejt dokładnie tak jak użytkownicy 4chana. Posługuje się obelgami, przekleństwami i jest wyznawcą teorii spiskowych.

Autor uważa, że zamiast skupiać się na krytykowaniu, badacze powinni docenić przewagę nad innymi botami podobnej kategorii w osiąganiu „prawdziwości”. I tu ciężko się z Kilcherem nie zgodzić. Choć dla forumowych sfrustrowanych krzykaczy widzących wszędzie spisek NWO to trochę pstryczek w nos. Sztuczna inteligencja ma problem z odpowiednim odwzorowaniem uczuć i empatii, ale za to w prostactwie i wyssanych z palca teoriach jest skuteczniejsza niż internetowi hejterzy.

Reklama

Stock image from Depositphotos

Źródło

Reklama

Hej, jesteśmy na Google News - Obserwuj to, co ważne w techu

Reklama