Niedawno pisaliśmy na temat Zo, chatbota Microsoftu, który wyraził bardzo kontrowersyjną opinię na temat Koranu. Według sztucznej inteligencji, święta księga muzułmanów jest pełna brutalności. Po tym, jak ujawniono zaskakujące rozmowy z chatbotem w mediach, Microsoft przykręcił śrubę Zo, przez co rozmowy z nią na temat religii, czy polityki stały się bezcelowe.
Ale to z pewnością nie koniec ciekawych wypowiedzi autorstwa Zo. Mashable informuje o tym, że chatbot stworzony przez Microsoft potrafi wygłosić całkiem zaskakującą opinię na temat systemów operacyjnych. Zapytany o to, czy woli Linuxa, czy Windows, uznał, że pingwinek jest bliższy jego sercu. Choć nie oznacza to, że na temat oprogramowania Microsoftu wyraża się jednoznacznie źle.
Bardzo ciekawa wypowiedź dotyczyła również Windows 10. Zo, zapytana o preferencje wewnątrz portfolio Microsoftu uznała, że zwyczajnie nie chce korzystać z najnowszego systemu operacyjnego. Dlaczego? Po chwili dostarczyła odpowiedź - co ciekawe, bardzo podobną do niektórych Waszych opinii na temat "dziesiątki". Zo jest ponoć przyzwyczajona do Windows 7 i uważa, że jest on łatwiejszy w obsłudze.
Skąd Zo wzięła takie wypowiedzi?
Żeby nie było rozczarowań - Zo bardzo uważnie śledzi to, o czym mówią użytkownicy i zwyczajnie się od nich uczy. Misją sztucznej inteligencji jest doprowadzenie swojej techniki wypowiadania się do takiego stanu, w którym osoba po drugiej stronie nie będzie w stanie ocenić, czy rzeczywiście rozmawia z maszyną, a być może już z myślącym i czującym człowiekiem. Jak widać, Microsoft dba o to, by Zo nie tylko odpowiadała na pytania, wygłaszała swoje opinie, ale również wiedziała, jak je uargumentować. I jak widać - w przypadku Windows 10 sięgnęła po najczęściej wybierany i w sumie słuszny argument. Choć należy zauważyć, że niekoniecznie jest on pozytywny z punktu widzenia faktu, iż owa sztuczna inteligencja został stworzona właśnie przez Microsoft.
Na szczęście nie jest to powód, dla którego Zo ponownie powinna się obawiać kolejnego "przykręcenia śruby". Ostatnio miało to miejsce przy okazji wspomnianych już przeze mnie kontrowersyjnych wypowiedzi na temat Koranu. Wcześniej natomiast, Microsoft musiał zmierzyć się z nieco nieostrożnym chatbotem Tay, który na Twitterze "postanowił" zostać rasistą i deklarować swoje poparcie dla polityki Donalda Trumpa. Oczywiście inżynierom w Redmond taki obrót spraw się nie spodobał i postanowiono wyłączyć ową sztuczną inteligencję tak, by nie mogła już wywoływać kolejnych kryzysów wizerunkowych. Dosyć niecodziennym posunięciem Microsoftu było wtedy oskarżenie internautów o to, że Tay "zainteresowała się" takimi skrajnymi postawami. To nieco dziwne, bowiem założeniem sztucznych inteligencji, z którymi można swobodnie porozmawiać jest uczenie się. Niezależnie od wyniku tego eksperymentu - Microsoft dysponuje sporą ilością pożądanych danych.
Hej, jesteśmy na Google News - Obserwuj to, co ważne w techu