OpenAI musi się mierzyć z sytuacjami nie do pozazdroszczenia. Aby nie doszło do zarzutów o nieuczciwe praktyki w trakcie wyborów prezydenckich w 2024 roku, OpenAI wprowadziło kilka rygorystycznych zasad, które mają na celu zapobieganie tworzeniu AI na bazie prawdziwych kandydatów. I to akurat nie jest podszyte wydumanym strachem - bo ktoś już użył AI do wytworzenia sobie przewagi w wyborach.
Krótko po wprowadzeniu tych zasad uwagę speców z OpenAI przykuł "Dean.Bot". Chatbot udawał Deana Phillipsa, kandydata na prezydenta USA z ramienia Partii Demokratycznej. Sam Dean Phillips prowadził długą i zaciętą kampanię przeciwko obecnemu prezydentowi Joe Bidenowi. Okazało się jednak, że chatbot został stworzony przez firmę Delphi, która otrzymała wsparcie finansowe od organizacji "We Deserve Better Super PAC" działającej na rzecz kampanii Phillipsa.
"Dean.Bot" musiał więc w opinii OpenAI "zginąć", bo naruszał zasady OpenAI dotyczące tworzenia takich AI. W odpowiedzi na to organizacja "We Deserve Better Super PAC" zaapelowała do Delphi o zaprzestanie korzystania z ChatGPT i zastąpienie go rozwiązaniem otwartoźródłowym. Ostatecznie doszło jednak do wyłączenia konta dewelopera i... Delphi skapitulowało.
OpenAI jest wyjątkowo zdeterminowane w egzekwowaniu zasad, które zabraniają wykorzystywania ich narzędzi do celów politycznych lub podszywania się pod prawdziwe osoby. ChatGPT podkreśla, że wszyscy użytkownicy ich narzędzi muszą przestrzegać tych zasad, a naruszenia będą kończyły się blokadami kont — bezlitośnie.
Co ciekawe, jeden ze współzałożycieli "We Deserve Better Super PAC" - Matt Krisiloff — był niegdyś związany z OpenAI. Nawet Sam Altman — obecny CEO OpenAI przyznał, że spotkał kiedyś Phillipa, jednak nigdy nie angażował się w działania organizacji działającej na jego rzecz w amerykańskiej polityce. Cóż, wielki biznes i polityka czasami chadzają jednymi ścieżkami i absolutnie mnie to nie dziwi. Tyle że Altman raczej nie chce otwarcie wspierać żadnego z konkurujących ze sobą obozów i nie może być pod tym względem wyjątków. Nawet jeśli są one "bliższe" jego preferencjom politycznym.
Wprowadzenie restrykcyjnych zasad przez OpenAI ma na celu utrzymanie uczciwości i przejrzystości w procesie wyborczym. Sytuacja z Dean.Botem jasno wskazuje, że AI może zostać wykorzystana do szeroko rozumianej agitacji wyborczej — tak właśnie stało się w tym przypadku. I niestety, ale w podobny sposób może się dziać również w przyszłości. Już mieliśmy przedsmak tego, co może się dziać w trakcie wyborów parlamentarnych z zeszłego roku, kiedy to w materiałach Koalicji Obywatelskiej wykorzystywano głosy polityków Zjednoczonej Prawicy wygenerowane przez sztuczną inteligencję. Tego typu taktyka miała na celu uwiarygodnienie tez forsowanych przez partię, która jest teraz liderem obozu rządzącego.
Hej, jesteśmy na Google News - Obserwuj to, co ważne w techu