Apple

Tym razem Siri "przegięła". Tego użytkownicy asystentki nie chcieli usłyszeć

JS
Jakub Szczęsny
6

Wirtualni asystenci to usługi oparte na sztucznej inteligencji, które pozwalają na rozszerzenie interakcji użytkownika z urządzeniem. W większości przypadków odbywa się to bez większych przeszkód, Siri natomiast zaliczyła wczoraj mocną wpadkę oferując co najmniej niestosowną definicję dla wyrazu "mother" w języku angielskim.

Od jakiegoś czasu posiadanie urządzeń iPhone mogą skorzystać z komendy "define the word...", za pomocą którego można poznać znaczenie danego wyrazu. Jeżeli zapytamy Siri np. o "samochód", to najpewniej powie nam, że jest to środek transportu z silnikiem, kołami, karoserią i tak dalej i tak dalej (dla przykładu). Zaproponuje nam być może jeszcze dodatkową definicję wyrazu i jeżeli wyrazimy na to zgodę - dowiemy się więcej. Użytkownicy dostrzegli jednak dziwne zachowanie asystentki Apple w kontekście wyrazu "mother". Dodatkowa definicja odbiega standardami od tego, co powinna prezentować tego typu usługa.

Siri po polsku - realna szansa czy science-fiction?

Definicja "mother" według Siri od Apple - blamaż

Pierwsza podana przez Siri definicja wyrazu "mother" jest całkiem dobra. Jednak gdy zgodzimy się na zaprezentowanie nam dodatkowej treści, oznajmi nam: "it means, short for 'motherfucker'.". Serio? Trudno ocenić co tutaj wyszło nie tak - być może sztuczna inteligencja zasugerowała się innymi wyrazami, w których takie "skróty" nie wyglądają źle. Zastosowała go również w kontekście wyrazu "mother", co wyszło... bardzo, ale to bardzo źle.

 

Od jakiegoś czasu posiadanie urządzeń iPhone mogą skorzystać z komendy "define the word...", za pomocą którego można poznać znaczenie danego wyrazu. Jeżeli zapytamy Siri np. o "samochód", to najpewniej powie nam, że jest to środek transportu z silnikiem, kołami, karoserią i tak dalej i tak dalej (dla przykładu). Zaproponuje nam być może jeszcze dodatkową definicję wyrazu i jeżeli wyrazimy na to zgodę - dowiemy się więcej. Użytkownicy dostrzegli jednak dziwne zachowanie asystentki Apple w kontekście wyrazu "mother". Dodatkowa definicja odbiega standardami od tego, co powinna prezentować tego typu usługa.

Siri po polsku - realna szansa czy science-fiction?

Definicja "mother" według Siri od Apple - blamaż

Pierwsza podana przez Siri definicja wyrazu "mother" jest całkiem dobra. Jednak gdy zgodzimy się na zaprezentowanie nam dodatkowej treści, oznajmi nam: "it means, short for 'motherfucker'.". Serio? Trudno ocenić co tutaj wyszło nie tak - być może sztuczna inteligencja zasugerowała się innymi wyrazami, w których takie "skróty" nie wyglądają źle. Zastosowała go również w kontekście wyrazu "mother", co wyszło... bardzo, ale to bardzo źle.

 

Jako pierwsi tę niecodzienną odpowiedź odkryli użytkownicy Reddita, którzy bardzo szybko ją spopularyzowali. Dalej podjęły ją media - od informacyjnych aż po technologiczne. Pytane o tę sprawę Apple nabrało wody w usta i po cichu załatało ten błąd. Nie da się już zapytać Siri o znaczenie wyrazu "mother" i uzyskać tej samej, mocno szokującej odpowiedzi.

A może to po prostu głupi żart twórców?

Tego już raczej się nie dowiemy, ale niektórzy sądzą, iż jest to zwyczajnie głupi błąd kogoś odpowiedzialnego za odpowiedzi Siri. W ramach żartu wprowadził do jej zasobów taką alternatywną definicję i zaczekał, aż sprawa wypłynie. Apple z pewnością nie pochwali się tym co nie zagrało w przypadku definicji słowa "mother", więc możemy sobie jedynie gdybać.

Ale to nie jedyna wpadka wirtualnego asystenta w świecie nowych technologii. Wcześniej okazywało się, że głośniki Amazona potrafiły zaśmiać się bez wyraźnego powodu - tak, jakby miały pewne "problemy ze sobą", lub próbowały wyśmiać użytkownika. Być może Amazon chciał uczynić interakcję z asystentką Aleksą nieco bardziej naturalną, ta jednak nie bardzo wiedziała w jakich konkretnie sytuacjach warto jest zaśmiać się. Wychodziło więc sztucznie i dziwnie jednocześnie - wielu posiadaczy głośników Amazon Echo uważało, że albo SI zwyczajnie "zgłupiała", albo złośliwie szukała sobie powodu do tego, aby ich zwyczajnie wyśmiać.

Jako pierwsi tę niecodzienną odpowiedź odkryli użytkownicy Reddita, którzy bardzo szybko ją spopularyzowali. Dalej podjęły ją media - od informacyjnych aż po technologiczne. Pytane o tę sprawę Apple nabrało wody w usta i po cichu załatało ten błąd. Nie da się już zapytać Siri o znaczenie wyrazu "mother" i uzyskać tej samej, mocno szokującej odpowiedzi.

A może to po prostu głupi żart twórców?

Tego już raczej się nie dowiemy, ale niektórzy sądzą, iż jest to zwyczajnie głupi błąd kogoś odpowiedzialnego za odpowiedzi Siri. W ramach żartu wprowadził do jej zasobów taką alternatywną definicję i zaczekał, aż sprawa wypłynie. Apple z pewnością nie pochwali się tym co nie zagrało w przypadku definicji słowa "mother", więc możemy sobie jedynie gdybać.

Ale to nie jedyna wpadka wirtualnego asystenta w świecie nowych technologii. Wcześniej okazywało się, że głośniki Amazona potrafiły zaśmiać się bez wyraźnego powodu - tak, jakby miały pewne "problemy ze sobą", lub próbowały wyśmiać użytkownika. Być może Amazon chciał uczynić interakcję z asystentką Aleksą nieco bardziej naturalną, ta jednak nie bardzo wiedziała w jakich konkretnie sytuacjach warto jest zaśmiać się. Wychodziło więc sztucznie i dziwnie jednocześnie - wielu posiadaczy głośników Amazon Echo uważało, że albo SI zwyczajnie "zgłupiała", albo złośliwie szukała sobie powodu do tego, aby ich zwyczajnie wyśmiać.

Hej, jesteśmy na Google News - Obserwuj to, co ważne w techu

Więcej na tematy: