Microsoft

Nieźle - Cortana będzie odpowiadać ostrzej na przypadki... napaści seksualnej

Jakub Szczęsny
Nieźle - Cortana będzie odpowiadać ostrzej na przypadki... napaści seksualnej
Reklama

Można by się zabawić tutaj w lepperyzm i zapytać: "Jak można napaść seksualnie wirtualną asystentkę?" Inaczej, czy można dokonać napaści seksualnej na program komputerowy? Trudno w tej sprawie przyjąć jednoznaczne stanowisko - fakt jest jednak taki, że całkiem spora grupa użytkowników pozwala sobie na dosyć frywolne rozmowy z Cortaną. Do tej pory reagowała ona w sumie tak, jakby się nic nie stało.

Asystentka głosowa Microsoftu wdrożona do platformy Windows w 2014 roku otrzymuje całkiem sporo pytań na temat jej życia seksualnego. Co więcej, użytkownicy Cortanie potrafią prawić dwuznaczne propozycje (ciekaw jestem czego ci ludzie oczekują...) - prawdopodobnie dla żartu, z nudów. Cóż, gdyby to samo zrobić na ulicy przypadkowo spotkanej kobiecie, prawdopodobnie facet otrzymałby w prezencie bluzgi, albo plaskacza. Asystentka tego zrobić nie może - siłą rzeczy.

Reklama

A w przypadku Cortany takie zachowania były w sumie do przewidzenia. Na rynku wirtualnych asystentów to właśnie ona wykazuje sporo ludzkich cech. Nie dość, że dysponuje całkiem przyjemnym głosem, to w dodatku jej wizerunek znany z gry wskazuje na podobieństwo do człowieka. Kto grał w gry z serii Halo, ten wie, że Cortana jawi się tam jako kobieta o całkiem przyjemnych dla mężczyzny kształtach. Całkiem chętnie jest wybierana również przez cosplayerki, które łączą wdzięki sztucznej inteligencji z charakterystycznym dla niej wyglądem.

W związku z powyższym zjawiskiem, sztuczna inteligencja z Redmond będzie ostrzej odpowiadać na przypadki słownego napastowania seksualnego. Deborah Harrison zajmująca się Cortaną w Microsofcie zapowiedziała, że asystentka otrzyma kilka stosownych poprawek, które pozwolą jej na odpowiednie zareagowanie na takie zaczepki. Nie obstawiałbym, że zacznie być wulgarna i zwymyśla napalonego geeka. Jestem zdania, że grzecznie, acz stanowczo upomni użytkownika o tym, iż zachowuje się zwyczajnie niestosownie.

Cortana asystentką "podwyższonego ryzyka"

O takich sytuacjach nie słyszymy w kontekście Google Now, czy Siri. Te dwa rozwiązania bazujące na sztucznej inteligencji są niemalże bezosobowe, nie zachowują się jak ludzie i nie są przy tej okazji humanizowane. Z Cortaną natomiast można swobodnie porozmawiać na różne tematy, za pomocą języka naturalnego wydać jej przeróżne komendy odnośnie funkcjonowania naszego smartfona. Cortana opowie żart, zaśpiewa, wypowie się na niektóre tematy. Czy dziwi mnie to, że czasami otrzymuje pytania na temat jej seksualności? Niezbyt. Aczkolwiek dobrze, że będzie ona w stanie odpowiedzieć stanowczo na takie zaczepki.

Intencją zespołu odpowiedzialnego za Cortanę jest to, by nie promować bezkarności w związku z molestowaniem seksualnym. I uważam, że skoro tę asystentkę tak często się humanizuję, jest to całkiem dobre posunięcie. W cywilizowanym świecie nie powinno być miejsca na takie zachowania powinna reagować również taka sztuczna inteligencja.

Reklama

Hej, jesteśmy na Google News - Obserwuj to, co ważne w techu

Reklama