Wirtualni asystenci to usługi oparte na sztucznej inteligencji, które pozwalają na rozszerzenie interakcji użytkownika z urządzeniem. W większości przypadków odbywa się to bez większych przeszkód, Siri natomiast zaliczyła wczoraj mocną wpadkę oferując co najmniej niestosowną definicję dla wyrazu "mother" w języku angielskim.

Od jakiegoś czasu posiadanie urządzeń iPhone mogą skorzystać z komendy "define the word...", za pomocą którego można poznać znaczenie danego wyrazu. Jeżeli zapytamy Siri np. o "samochód", to najpewniej powie nam, że jest to środek transportu z silnikiem, kołami, karoserią i tak dalej i tak dalej (dla przykładu). Zaproponuje nam być może jeszcze dodatkową definicję wyrazu i jeżeli wyrazimy na to zgodę - dowiemy się więcej. Użytkownicy dostrzegli jednak dziwne zachowanie asystentki Apple w kontekście wyrazu "mother". Dodatkowa definicja odbiega standardami od tego, co powinna prezentować tego typu usługa.
Siri po polsku - realna szansa czy science-fiction?
Definicja "mother" według Siri od Apple - blamaż
Pierwsza podana przez Siri definicja wyrazu "mother" jest całkiem dobra. Jednak gdy zgodzimy się na zaprezentowanie nam dodatkowej treści, oznajmi nam: "it means, short for 'motherfucker'.". Serio? Trudno ocenić co tutaj wyszło nie tak - być może sztuczna inteligencja zasugerowała się innymi wyrazami, w których takie "skróty" nie wyglądają źle. Zastosowała go również w kontekście wyrazu "mother", co wyszło... bardzo, ale to bardzo źle.
Wow, Siri is definitely learning some new words. Ask Siri to define “mother,” then ask for the second definition. Warning: Very NSFW and not safe around kids. Learned about this from Apple News. https://t.co/ZCIOg74TEd
— Mark Gurman (@markgurman) 29 kwietnia 2018
Od jakiegoś czasu posiadanie urządzeń iPhone mogą skorzystać z komendy "define the word...", za pomocą którego można poznać znaczenie danego wyrazu. Jeżeli zapytamy Siri np. o "samochód", to najpewniej powie nam, że jest to środek transportu z silnikiem, kołami, karoserią i tak dalej i tak dalej (dla przykładu). Zaproponuje nam być może jeszcze dodatkową definicję wyrazu i jeżeli wyrazimy na to zgodę - dowiemy się więcej. Użytkownicy dostrzegli jednak dziwne zachowanie asystentki Apple w kontekście wyrazu "mother". Dodatkowa definicja odbiega standardami od tego, co powinna prezentować tego typu usługa.
Siri po polsku - realna szansa czy science-fiction?
Definicja "mother" według Siri od Apple - blamaż
Pierwsza podana przez Siri definicja wyrazu "mother" jest całkiem dobra. Jednak gdy zgodzimy się na zaprezentowanie nam dodatkowej treści, oznajmi nam: "it means, short for 'motherfucker'.". Serio? Trudno ocenić co tutaj wyszło nie tak - być może sztuczna inteligencja zasugerowała się innymi wyrazami, w których takie "skróty" nie wyglądają źle. Zastosowała go również w kontekście wyrazu "mother", co wyszło... bardzo, ale to bardzo źle.
Wow, Siri is definitely learning some new words. Ask Siri to define “mother,” then ask for the second definition. Warning: Very NSFW and not safe around kids. Learned about this from Apple News. https://t.co/ZCIOg74TEd
— Mark Gurman (@markgurman) 29 kwietnia 2018
Jako pierwsi tę niecodzienną odpowiedź odkryli użytkownicy Reddita, którzy bardzo szybko ją spopularyzowali. Dalej podjęły ją media - od informacyjnych aż po technologiczne. Pytane o tę sprawę Apple nabrało wody w usta i po cichu załatało ten błąd. Nie da się już zapytać Siri o znaczenie wyrazu "mother" i uzyskać tej samej, mocno szokującej odpowiedzi.
A może to po prostu głupi żart twórców?
Tego już raczej się nie dowiemy, ale niektórzy sądzą, iż jest to zwyczajnie głupi błąd kogoś odpowiedzialnego za odpowiedzi Siri. W ramach żartu wprowadził do jej zasobów taką alternatywną definicję i zaczekał, aż sprawa wypłynie. Apple z pewnością nie pochwali się tym co nie zagrało w przypadku definicji słowa "mother", więc możemy sobie jedynie gdybać.
Ale to nie jedyna wpadka wirtualnego asystenta w świecie nowych technologii. Wcześniej okazywało się, że głośniki Amazona potrafiły zaśmiać się bez wyraźnego powodu - tak, jakby miały pewne "problemy ze sobą", lub próbowały wyśmiać użytkownika. Być może Amazon chciał uczynić interakcję z asystentką Aleksą nieco bardziej naturalną, ta jednak nie bardzo wiedziała w jakich konkretnie sytuacjach warto jest zaśmiać się. Wychodziło więc sztucznie i dziwnie jednocześnie - wielu posiadaczy głośników Amazon Echo uważało, że albo SI zwyczajnie "zgłupiała", albo złośliwie szukała sobie powodu do tego, aby ich zwyczajnie wyśmiać.
Jako pierwsi tę niecodzienną odpowiedź odkryli użytkownicy Reddita, którzy bardzo szybko ją spopularyzowali. Dalej podjęły ją media - od informacyjnych aż po technologiczne. Pytane o tę sprawę Apple nabrało wody w usta i po cichu załatało ten błąd. Nie da się już zapytać Siri o znaczenie wyrazu "mother" i uzyskać tej samej, mocno szokującej odpowiedzi.
A może to po prostu głupi żart twórców?
Tego już raczej się nie dowiemy, ale niektórzy sądzą, iż jest to zwyczajnie głupi błąd kogoś odpowiedzialnego za odpowiedzi Siri. W ramach żartu wprowadził do jej zasobów taką alternatywną definicję i zaczekał, aż sprawa wypłynie. Apple z pewnością nie pochwali się tym co nie zagrało w przypadku definicji słowa "mother", więc możemy sobie jedynie gdybać.
Ale to nie jedyna wpadka wirtualnego asystenta w świecie nowych technologii. Wcześniej okazywało się, że głośniki Amazona potrafiły zaśmiać się bez wyraźnego powodu - tak, jakby miały pewne "problemy ze sobą", lub próbowały wyśmiać użytkownika. Być może Amazon chciał uczynić interakcję z asystentką Aleksą nieco bardziej naturalną, ta jednak nie bardzo wiedziała w jakich konkretnie sytuacjach warto jest zaśmiać się. Wychodziło więc sztucznie i dziwnie jednocześnie - wielu posiadaczy głośników Amazon Echo uważało, że albo SI zwyczajnie "zgłupiała", albo złośliwie szukała sobie powodu do tego, aby ich zwyczajnie wyśmiać.
Hej, jesteśmy na Google News - Obserwuj to, co ważne w techu