Felietony

AI od Meta uważa się za chrześcijanina. "Troszkę" się popsuła

Jakub Szczęsny
17

Sztuczna inteligencja i chatboty to ciekawe, ale i ryzykowne połączenie. Kiedyś o tym przekonał się Microsoft, który stworzył Tay, podłączył ją do Twittera i puścił samopas, żeby się kształciła wśród internautów. Ci wzięli ją w obroty i bardzo szybko nauczyli rasizmu oraz stereotypów dotyczących chociażby mniejszości etnicznych, a także uwielbienia dla Trumpa. Meta postanowiło zrobić to samo (ale bez Twittera) - za pomocą BlenderBota 3. I jak wyszło? Tak samo źle. Czego oni się spodziewali?!

No, właśnie. Jak można zrobić niemalże to samo i oczekiwać innego wyniku? Ja rozumiem, że samouczące się chatboty to przyszłość - ale niekoniecznie warto jest rozwijać je w zupełnie niekontrolowanych warunkach, właściwie puszczając je samopas. Internauci są złośliwi z natury i jeżeli mają okazję coś zepsuć, najpewniej to zrobią. Dwa dni po tym, kiedy uruchomiono BlenderBota 3, ten zaczął już powtarzać antysemickie stereotypy, a nawet przedstawia Trumpa jako urzędującego prezydenta - tak, jakby ostatnie wybory, w których wygrał Biden znaczyły tyle, co nic (zgodnie z życzeniem Trumpa). Dwa dni to naprawdę niewiele, ale weźmy pod uwagę że Tay zepsuto w podobnym czasie. Właściwie, to nawet udało się to zrobić szybciej - bowiem Tay polubiła rasizm po zaledwie 24 godzinach.

(cudowne - BlenderBot pogrąża Facebooka twierdząc, że ten traktuje ludzi jak produkty (nie skłamał, hehe))

Na razie BlenderBot 3 jest dostępny tylko z adresów IP wskazujących na Stany Zjednoczone. Jeżeli macie odrobinę czasu, aby z nim porozmawiać - uzbrójcie się w jakiegoś dobrego VPN-a. Meta postanowiło zrobić tak, aby zapobiec próbom ataków DDoS na usługę. Zresztą, jest w tym sporo sensu i w kontekście psucia takiego chatbota. Jednak internautom z USA i tak się to udało. Poza rozmowami, Chatbot spędza czas na przeszukiwaniu Sieci i za pomocą takich aktywności również się uczy. Potrafi rozmawiać na wiele tematów - od bieżących wydarzeń do skali klasyfikacji zdrowia nowonarodzonych dzieci (Apgar).

Oczywiście Meta w tej sytuacji za chwilę doprosi się skandalu wizerunkowego, jakby miało mało problemów chociażby z metaverse'em oraz rewolucją w świecie internetowym, za którą zdajemy się wyraźnie nie nadążać. Oczywiście, BlenderBot 3 ma napędzać w przyszłości wiele usług oferowanych przez Facebooka (oraz wewnętrzne systemy Facebooka), jednak widząc to, jak bardzo jest to "niefrasobliwe" narzędzie... wolałbym mu nie dawać żadnej poważniejszej rzeczy do zrobienia. Zwyczajnie, z obawy o efekt takiej pracy. Nie chciałbym, żeby mój klient po rozmowie z takim botem, poczuł się zażenowany jego stwierdzeniami (bo nie poglądami, boty nie mają poglądów!) i już więcej do mnie nie przyszedł. Taka sobie perspektywa, prawda?

(Czy sztuczna inteligencja może być chrześcijaninem? Jeszcze jak!)

Skończyło się źle? No, kto by pomyślał!

Mawia się, że głupim jest ten człowiek który wiele razy robi dokładnie to samo i oczekuje innego wyniku swoich działań. Meta doskonale wiedziało o tym, jak skończył się podobny eksperyment. Tay może nie była ogromnym obciążeniem wizerunkowym dla Microsoftu, ale to słabe gdy Twoja firma przez kilka dni jest znana z tego, że jej produkt okazał się być rasistą. Można było więc sobie dośpiewać, że tutaj będzie podobnie - jednak nikt nie wpadł na to, by zadać sobie nieco trudu i zaproponować inny pomysł rozwoju bota.

Ten przypadek unaocznia również nam, że boty są jeszcze niedoskonałe i podatne na wpływ z zewnątrz. Dodatkowo, nie są w stanie często zapewnić takiego komfortu obsługi jak człowiek. Mam na co dzień kontakt z osobą, która pracuje w dużym polskim banku, który wprowadza rozwiązania takie jak automaty załatwiające sprawy klientów - użytkownicy często cieszą się, że są przełączani do człowieka, zamiast maszyny - która nie rozumie ich poleceń lub ich nie realizuje. Czasami przerażające jest to, że po drugiej stronie jest maszyna - ludzie zwyczajnie chcą na razie kontaktu ze strony ludzi. Trudno im zaakceptować to, że rozmawiają z botem.

Ale tutaj już nieco odeszliśmy od tematu. Meta wtopiło tym razem i następnym razem - miejmy nadzieję - tego błędu nie popełni. Chatboty to sprawa "śliska".

Hej, jesteśmy na Google News - Obserwuj to, co ważne w techu