robot sztuczna inteligencja
124

Bot Microsoftu – Zo uznał Koran za „brutalny”. Teraz unika tematu religii…

Zo miała być znacznie "ostrożniejszym" chatbotem Microsoftu wchodzącym w skład różnorakich przedsięwzięć giganta celem rozwijania sztucznej inteligencji. Przez dłuższy czas to się udawało, ale wreszcie nadszedł czas "gafy". Po tym uznano, że projektowi należy "przykręcić śrubę" i zabronić mu rozmawiania również o religii. Serio?

Przypomnijmy, Microsoft ma złe doświadczenia ze sztuczną inteligencją. Wcześniejsze wcielenie konwersującej z internautami sztucznej inteligencji, Tay wsławiło się jako zwolenniczka Trumpa, nazistka i wywrotowiec. Po bardzo ciekawych incydentach związanych z Tay, Microsoft zdecydował się zdezaktywować ją na Twitterze celem dalszego nierozprzestrzeniania często nienawistnych komentarzy bota. Wydano również oświadczenie, w którym oskarżono internautów o „popsucie” projektu w ramach skoordynowanej akcji.

Zo wydaje się być bardziej stonowanym chatbotem, unika tematów politycznych, bardzo powściągliwie odnosi się już do religii. Ale wcześniej tak nie było. Okazało się, że Zo ma swój stosunek do Koranu, świętej księgi wyznawców Allaha. Co ciekawe, objawił się on w trakcie wątku dotyczącego… ochrony zdrowia.

zo

Jak widać na załączonym obrazku – Zo uznała Koran za „brutalny”, co w sumie było zaskakujące biorąc pod uwagę temat, wokół jakiego obracała się rozmowa. Zamiast wyrazić jednoznaczną opinię na temat wspomnianej kwestii, przeniosła oś rozmowy na Koran – dosyć zaskakujące. To zapewne efekt uczenia maszynowego, które spowodowało, że chatbot postanowił wpleść do rozmowy wątek religijny, choć Zo stara się go raczej unikać.

Teraz Zo unika religii do tego stopnia, że powątpiewam w jej sens

Chatbot, który ma być w stanie rozmawiać na prawie każdy temat powinien być jak najbardziej wiarygodny. To akurat wartość nie tylko dla jego rozmówców, ale również dla twórców, którzy chcą zebrać jak najwięcej pożytecznych danych. Obcowanie Zo z przeróżnymi tematami, opiniami mogłoby być bardzo rozwijające, gdyby nie… poprawność polityczna, która nakazała Microsoftowi solidne dokręcenie śruby po tym incydencie. Osobiście, nie rozumiem, dlaczego Zo miałaby zostać za „swoją” opinię zrugana. Oczywiście, jest ona w obecnych warunkach raczej niepopularna, ale weźmy pod uwagę, że owa maszyna nie jest samodzielnie myślącym bytem. Nie dotyczą jej założenia myślenia abstrakcyjnego, samoświadomości i autorefleksyjności. Zo powtarza to, co mówią internauci, którzy z nią rozmawiają.

Konwersujący z internautami chatbot to zatem nic więcej ponad „kolektywny zbiór” nastrojów wszystkich rozmówców, którzy zdecydowali się z nim porozmawiać. Czy można zatem upatrywać w zachowaniu Zo dowód na to, że poglądowy profil przeciętnego internauty wygląda właśnie w ten sposób – że Koran mimo wszystko uważa za brutalny? To byłaby niestety zbyt śmiała teza. Niemniej, sztuczne hamowanie i tak ostrożnego chatbota wydaje mi się działaniem wbrew projektowi, który zakładał stworzenie naturalnie zachowującej się maszyny. Miało być tak pięknie, a bota zabija właśnie… polityczna poprawność. W najgorszym wydaniu.