Amazon

Dziecko poprosiło asystentkę głosową o wyzwanie. Dostało challenge, który mógł zakończyć się tragicznie

Kamil Świtalski
Dziecko poprosiło asystentkę głosową o wyzwanie. Dostało challenge, który mógł zakończyć się tragicznie
Reklama

Sztuczna inteligencja ma jeszcze przed sobą długą drogę do doskonałości. Nie wierzycie? No to zobaczcie jakie wyzwanie Alexa przeczytała 10-letniemu dziecku, proszącemu ją o challenge do wykonania.

Nie dalej niż kilka godzin temu Jakub opublikował wpis z tiktokowymi wyzwaniami, które szokują. Są głupie i potencjalnie mogą być bardzo niebezpieczne. TikTok stał się doskonałym chłopcem do bicia — ze względu na popularność medium, można tam znaleźć dużo wątpliwej jakości treści. Ale nie miejcie złudzeń — internet to miejsce, w którym na każdym kroku czai się coś potencjalnie niebezpiecznego. Nie potrzeba mediów społecznościowych, nawet asystentka głosowa Alexa na prośbę 10-letniego dziecka o podrzucenie jakiegoś wyzwania do wykonania podrzuciła mu zadanie... które mogło okazać się tragiczne w skutkach.

Reklama

"Podłącz ładowarkę telefonu do połowy, a następnie dotknij monetą wysuniętych bolców" — oto zadanie, które Alexa podrzuciła dziecku

Nic dodać, nic ująć. Alexa na prośbę 10-latka odnalazła challenge w sieci i podrzuciła go dziecku. Jesteśmy dorośli, więc raczej nikt nie ma złudzeń że zadanie które asystentka podrzuciła za pośrednictwem głośnika Amazon Echo mogło okazać się tragiczne w skutkach. Młoda osoba mogła wyrządzić sobie poważną krzywdę.

Oczywiście to nie jest tak, że asystentka głosowa Amazonu nagle zamieniła się w morderczą istotę łaknącą ofiar — nic z tych rzeczy. Sama tego zadania nie wymyśliła, po prostu odnalazła challenge w sieci. Równie dobrze dziecko mogło na nie trafić korzystając z wyszukiwarki Google w swoim smartfonie, tablecie czy komputerze. Istnieje jednak szansa, że pośród wielu wyników wyszukiwania nigdy nie trafiłoby na akurat tę stronę, tymczasem Alexa podrzuca jeden wynik. W tym konkretnym wypadku: potencjalnie niezwykle niebezpieczny.

Sztuczna inteligencja jest szkolona od wielu lat — i jeszcze wiele lat przed nią. Jak pokazują takie pojedyncze przykłady, na tę chwilę... potrafi radzić sobie naprawdę średnio. Amazon natychmiast zareagował na problemy z podrzucaniem wyzwań użytkownikom, wszystko wskazuje na to że obecnie komenda tell me a challenge została (tymczasowo?) wyłączona.

Aktualizacja - oświadczenie Amazon

Zaufanie klientów jest w centrum wszystkiego, co robimy, a Alexa została zaprojektowana tak, aby dostarczać klientom dokładnych, istotnych i pomocnych informacji. Gdy tylko dowiedzieliśmy się o błędzie, szybko go naprawiliśmy i będziemy nadal rozwijać nasze systemy, aby pomóc w zapobieganiu podobnym odpowiedziom w przyszłości. — rzecznik prasowy Amazon

Hej, jesteśmy na Google News - Obserwuj to, co ważne w techu

Reklama