Wirtualni asystenci to usługi oparte na sztucznej inteligencji, które pozwalają na rozszerzenie interakcji użytkownika z urządzeniem. W większości przypadków odbywa się to bez większych przeszkód, Siri natomiast zaliczyła wczoraj mocną wpadkę oferując co najmniej niestosowną definicję dla wyrazu "mother" w języku angielskim.
Od jakiegoś czasu posiadanie urządzeń iPhone mogą skorzystać z komendy "define the word...", za pomocą którego można poznać znaczenie danego wyrazu. Jeżeli zapytamy Siri np. o "samochód", to najpewniej powie nam, że jest to środek transportu z silnikiem, kołami, karoserią i tak dalej i tak dalej (dla przykładu). Zaproponuje nam być może jeszcze dodatkową definicję wyrazu i jeżeli wyrazimy na to zgodę - dowiemy się więcej. Użytkownicy dostrzegli jednak dziwne zachowanie asystentki Apple w kontekście wyrazu "mother". Dodatkowa definicja odbiega standardami od tego, co powinna prezentować tego typu usługa.
Siri po polsku - realna szansa czy science-fiction?
Definicja "mother" według Siri od Apple - blamaż
Pierwsza podana przez Siri definicja wyrazu "mother" jest całkiem dobra. Jednak gdy zgodzimy się na zaprezentowanie nam dodatkowej treści, oznajmi nam: "it means, short for 'motherfucker'.". Serio? Trudno ocenić co tutaj wyszło nie tak - być może sztuczna inteligencja zasugerowała się innymi wyrazami, w których takie "skróty" nie wyglądają źle. Zastosowała go również w kontekście wyrazu "mother", co wyszło... bardzo, ale to bardzo źle.
Wow, Siri is definitely learning some new words. Ask Siri to define “mother,” then ask for the second definition. Warning: Very NSFW and not safe around kids. Learned about this from Apple News. https://t.co/ZCIOg74TEd
— Mark Gurman (@markgurman) 29 kwietnia 2018
Jako pierwsi tę niecodzienną odpowiedź odkryli użytkownicy Reddita, którzy bardzo szybko ją spopularyzowali. Dalej podjęły ją media - od informacyjnych aż po technologiczne. Pytane o tę sprawę Apple nabrało wody w usta i po cichu załatało ten błąd. Nie da się już zapytać Siri o znaczenie wyrazu "mother" i uzyskać tej samej, mocno szokującej odpowiedzi.
A może to po prostu głupi żart twórców?
Tego już raczej się nie dowiemy, ale niektórzy sądzą, iż jest to zwyczajnie głupi błąd kogoś odpowiedzialnego za odpowiedzi Siri. W ramach żartu wprowadził do jej zasobów taką alternatywną definicję i zaczekał, aż sprawa wypłynie. Apple z pewnością nie pochwali się tym co nie zagrało w przypadku definicji słowa "mother", więc możemy sobie jedynie gdybać.
Ale to nie jedyna wpadka wirtualnego asystenta w świecie nowych technologii. Wcześniej okazywało się, że głośniki Amazona potrafiły zaśmiać się bez wyraźnego powodu - tak, jakby miały pewne "problemy ze sobą", lub próbowały wyśmiać użytkownika. Być może Amazon chciał uczynić interakcję z asystentką Aleksą nieco bardziej naturalną, ta jednak nie bardzo wiedziała w jakich konkretnie sytuacjach warto jest zaśmiać się. Wychodziło więc sztucznie i dziwnie jednocześnie - wielu posiadaczy głośników Amazon Echo uważało, że albo SI zwyczajnie "zgłupiała", albo złośliwie szukała sobie powodu do tego, aby ich zwyczajnie wyśmiać.
Hej, jesteśmy na Google News - Obserwuj to, co ważne w techu