6

Tym razem Siri „przegięła”. Tego użytkownicy asystentki nie chcieli usłyszeć

Wirtualni asystenci to usługi oparte na sztucznej inteligencji, które pozwalają na rozszerzenie interakcji użytkownika z urządzeniem. W większości przypadków odbywa się to bez większych przeszkód, Siri natomiast zaliczyła wczoraj mocną wpadkę oferując co najmniej niestosowną definicję dla wyrazu "mother" w języku angielskim.

Od jakiegoś czasu posiadanie urządzeń iPhone mogą skorzystać z komendy „define the word…”, za pomocą którego można poznać znaczenie danego wyrazu. Jeżeli zapytamy Siri np. o „samochód”, to najpewniej powie nam, że jest to środek transportu z silnikiem, kołami, karoserią i tak dalej i tak dalej (dla przykładu). Zaproponuje nam być może jeszcze dodatkową definicję wyrazu i jeżeli wyrazimy na to zgodę – dowiemy się więcej. Użytkownicy dostrzegli jednak dziwne zachowanie asystentki Apple w kontekście wyrazu „mother”. Dodatkowa definicja odbiega standardami od tego, co powinna prezentować tego typu usługa.

Definicja „mother” według Siri od Apple – blamaż

Pierwsza podana przez Siri definicja wyrazu „mother” jest całkiem dobra. Jednak gdy zgodzimy się na zaprezentowanie nam dodatkowej treści, oznajmi nam: „it means, short for ‚motherfucker’.”. Serio? Trudno ocenić co tutaj wyszło nie tak – być może sztuczna inteligencja zasugerowała się innymi wyrazami, w których takie „skróty” nie wyglądają źle. Zastosowała go również w kontekście wyrazu „mother”, co wyszło… bardzo, ale to bardzo źle.

Jako pierwsi tę niecodzienną odpowiedź odkryli użytkownicy Reddita, którzy bardzo szybko ją spopularyzowali. Dalej podjęły ją media – od informacyjnych aż po technologiczne. Pytane o tę sprawę Apple nabrało wody w usta i po cichu załatało ten błąd. Nie da się już zapytać Siri o znaczenie wyrazu „mother” i uzyskać tej samej, mocno szokującej odpowiedzi.

A może to po prostu głupi żart twórców?

Tego już raczej się nie dowiemy, ale niektórzy sądzą, iż jest to zwyczajnie głupi błąd kogoś odpowiedzialnego za odpowiedzi Siri. W ramach żartu wprowadził do jej zasobów taką alternatywną definicję i zaczekał, aż sprawa wypłynie. Apple z pewnością nie pochwali się tym co nie zagrało w przypadku definicji słowa „mother”, więc możemy sobie jedynie gdybać.

Ale to nie jedyna wpadka wirtualnego asystenta w świecie nowych technologii. Wcześniej okazywało się, że głośniki Amazona potrafiły zaśmiać się bez wyraźnego powodu – tak, jakby miały pewne „problemy ze sobą”, lub próbowały wyśmiać użytkownika. Być może Amazon chciał uczynić interakcję z asystentką Aleksą nieco bardziej naturalną, ta jednak nie bardzo wiedziała w jakich konkretnie sytuacjach warto jest zaśmiać się. Wychodziło więc sztucznie i dziwnie jednocześnie – wielu posiadaczy głośników Amazon Echo uważało, że albo SI zwyczajnie „zgłupiała”, albo złośliwie szukała sobie powodu do tego, aby ich zwyczajnie wyśmiać.