Od jakiegoś czasu posiadanie urządzeń iPhone mogą skorzystać z komendy „define the word…”, za pomocą którego można poznać znaczenie danego wyrazu. Jeżeli zapytamy Siri np. o „samochód”, to najpewniej powie nam, że jest to środek transportu z silnikiem, kołami, karoserią i tak dalej i tak dalej (dla przykładu). Zaproponuje nam być może jeszcze dodatkową definicję wyrazu i jeżeli wyrazimy na to zgodę – dowiemy się więcej. Użytkownicy dostrzegli jednak dziwne zachowanie asystentki Apple w kontekście wyrazu „mother”. Dodatkowa definicja odbiega standardami od tego, co powinna prezentować tego typu usługa.
Siri po polsku – realna szansa czy science-fiction?
Definicja „mother” według Siri od Apple – blamaż
Pierwsza podana przez Siri definicja wyrazu „mother” jest całkiem dobra. Jednak gdy zgodzimy się na zaprezentowanie nam dodatkowej treści, oznajmi nam: „it means, short for ‚motherfucker’.”. Serio? Trudno ocenić co tutaj wyszło nie tak – być może sztuczna inteligencja zasugerowała się innymi wyrazami, w których takie „skróty” nie wyglądają źle. Zastosowała go również w kontekście wyrazu „mother”, co wyszło… bardzo, ale to bardzo źle.
Wow, Siri is definitely learning some new words. Ask Siri to define “mother,” then ask for the second definition. Warning: Very NSFW and not safe around kids. Learned about this from Apple News. https://t.co/ZCIOg74TEd
— Mark Gurman (@markgurman) 29 kwietnia 2018
Jako pierwsi tę niecodzienną odpowiedź odkryli użytkownicy Reddita, którzy bardzo szybko ją spopularyzowali. Dalej podjęły ją media – od informacyjnych aż po technologiczne. Pytane o tę sprawę Apple nabrało wody w usta i po cichu załatało ten błąd. Nie da się już zapytać Siri o znaczenie wyrazu „mother” i uzyskać tej samej, mocno szokującej odpowiedzi.
A może to po prostu głupi żart twórców?
Tego już raczej się nie dowiemy, ale niektórzy sądzą, iż jest to zwyczajnie głupi błąd kogoś odpowiedzialnego za odpowiedzi Siri. W ramach żartu wprowadził do jej zasobów taką alternatywną definicję i zaczekał, aż sprawa wypłynie. Apple z pewnością nie pochwali się tym co nie zagrało w przypadku definicji słowa „mother”, więc możemy sobie jedynie gdybać.
Ale to nie jedyna wpadka wirtualnego asystenta w świecie nowych technologii. Wcześniej okazywało się, że głośniki Amazona potrafiły zaśmiać się bez wyraźnego powodu – tak, jakby miały pewne „problemy ze sobą”, lub próbowały wyśmiać użytkownika. Być może Amazon chciał uczynić interakcję z asystentką Aleksą nieco bardziej naturalną, ta jednak nie bardzo wiedziała w jakich konkretnie sytuacjach warto jest zaśmiać się. Wychodziło więc sztucznie i dziwnie jednocześnie – wielu posiadaczy głośników Amazon Echo uważało, że albo SI zwyczajnie „zgłupiała”, albo złośliwie szukała sobie powodu do tego, aby ich zwyczajnie wyśmiać.
Więcej z kategorii Apple:
- Plotki o śmierci iPhone'a 13 Mini mocno przesadzone. Tak ma wyglądać tegoroczny smartfon
- Przegrało FBI, przegrało Apple. Wygrał mały australijski startup
- Parallels pozwala już uruchomić Windows 10 na Makach z M1
- Jak nie smartfony, to może samochody. LG ma pomóc zbudować samochód Apple
- Czy Apple szykuje rewolucję / dogoni konkurencję* w produktach smart home?