Ciekawostki technologiczne

Chatbot - rasista Microsoftu był dobrą nauką dla twórców asystentów

Jakub Szczęsny
Chatbot - rasista Microsoftu był dobrą nauką dla twórców asystentów
7

Pamiętacie jeszcze Tay od Microsoftu? Zamysł giganta zakładał, że ten chatbot w serwisie Twitter będzie uczył się od innych internautów i ostatecznie... został przez nich paskudnie zepsuty. Tay chwaliła Trumpa, trzymała się rasistowskich postaw i generalnie zaskoczyła dosłownie wszystkich. Projekt szybko zamknięto, ale do dziś wywołuje on sporo emocji.

Jeden dzień wystarczył internautom do tego, aby Tay stała się zwolenniczką Trumpa i rasistką. Microsoft miał nadzieję, że internauci będą łaskawi dla tego projektu i uważał, że ci nauczą jej naturalnych interakcji z innymi użytkownikami sieci. Po jednym dniu projekt został zamknięty i Tay przestała odpowiadać na jakiekolwiek pytania.

A co na ten temat sądzi Misha Bilenko z Yandeksa? Według niego była to dobra nauka dla innych twórców wirtualnych asystentów

Wirtualny asystent ma za zadanie nie tylko dokonywać interakcji z użytkownikami, ale i na bieżąco uczyć się nowych rzeczy. W trakcie konferencji EmTech Digital w San Francisco stwierdził on, że ten przypadek unaocznił twórcom podobnych projektów, na co należy zwracać uwagę tworząc konstrukt dla wirtualnych asystentów. Ci nie dość, że muszą rzeczywiście się uczyć, powinni być odporni na próby sprowadzenia ich na manowce. Kolejnym problemem

Według niego, sporo złego zrobiło to, że Tay została początkowo stworzona jako rozmówczyni o raczej swobodnym usposobieniu i osobowości 19-latki. Również i antropomorfizacja sztucznej inteligencji jest niekoniecznie dobra - maszyna zwyczajnie operuje na "innym poziomie percepcji" (o ile tak to można nazwać) i zbytnie jej upodobnianie do człowieka może okazać się po prostu niebezpieczne. Szczególnie, jeżeli mówimy o chatbocie, który ma się od ludzi uczyć. A od nich natomiast może złapać... cokolwiek.

 

Jeden dzień wystarczył internautom do tego, aby Tay stała się zwolenniczką Trumpa i rasistką. Microsoft miał nadzieję, że internauci będą łaskawi dla tego projektu i uważał, że ci nauczą jej naturalnych interakcji z innymi użytkownikami sieci. Po jednym dniu projekt został zamknięty i Tay przestała odpowiadać na jakiekolwiek pytania.

A co na ten temat sądzi Misha Bilenko z Yandeksa? Według niego była to dobra nauka dla innych twórców wirtualnych asystentów

Wirtualny asystent ma za zadanie nie tylko dokonywać interakcji z użytkownikami, ale i na bieżąco uczyć się nowych rzeczy. W trakcie konferencji EmTech Digital w San Francisco stwierdził on, że ten przypadek unaocznił twórcom podobnych projektów, na co należy zwracać uwagę tworząc konstrukt dla wirtualnych asystentów. Ci nie dość, że muszą rzeczywiście się uczyć, powinni być odporni na próby sprowadzenia ich na manowce. Kolejnym problemem

Według niego, sporo złego zrobiło to, że Tay została początkowo stworzona jako rozmówczyni o raczej swobodnym usposobieniu i osobowości 19-latki. Również i antropomorfizacja sztucznej inteligencji jest niekoniecznie dobra - maszyna zwyczajnie operuje na "innym poziomie percepcji" (o ile tak to można nazwać) i zbytnie jej upodobnianie do człowieka może okazać się po prostu niebezpieczne. Szczególnie, jeżeli mówimy o chatbocie, który ma się od ludzi uczyć. A od nich natomiast może złapać... cokolwiek.

 

Na co dzień korzystam z Asystenta Google i uwierzcie mi, nie chciałbym, żeby był nazbyt ludzki

Asystent Google jest dobrym kompanem w pracy, potrafi ułatwić życie, ale niekoniecznie chciałbym, żeby zachowywał się bardziej ludzko niż obecnie. Dla mnie ważne jest to, aby robił to, do czego został stworzony. Rozumienie komend, wykonywanie ich i proponowanie innych rozwiązań operując na kontekście to wszystko, czego obecnie potrzebuję.

Z tym, że inni konsumenci nowoczesnych technologii mogą mieć inne zdanie. Nie jestem pewien, czy konsumenci nie będą próbować doszukiwać się w sztucznej inteligencji typowo ludzkich cech. Przypomniał mi się właśnie film "Her", w którym główny bohater zakochał się w maszynie, samoświadomej właściwie sztucznej inteligencji będącej jednocześnie systemem operacyjnym. Jestem pewien, że do tak drastycznych wykolejeń nie dojdzie, pytanie tylko, czy w najbliższej przyszłości, przełom w postaci sztucznej osobliwości nie postawi nas przed zupełnie nowymi problemami, również takimi, które będą ważyć na całym społeczeństwie.

Na co dzień korzystam z Asystenta Google i uwierzcie mi, nie chciałbym, żeby był nazbyt ludzki

Asystent Google jest dobrym kompanem w pracy, potrafi ułatwić życie, ale niekoniecznie chciałbym, żeby zachowywał się bardziej ludzko niż obecnie. Dla mnie ważne jest to, aby robił to, do czego został stworzony. Rozumienie komend, wykonywanie ich i proponowanie innych rozwiązań operując na kontekście to wszystko, czego obecnie potrzebuję.

Z tym, że inni konsumenci nowoczesnych technologii mogą mieć inne zdanie. Nie jestem pewien, czy konsumenci nie będą próbować doszukiwać się w sztucznej inteligencji typowo ludzkich cech. Przypomniał mi się właśnie film "Her", w którym główny bohater zakochał się w maszynie, samoświadomej właściwie sztucznej inteligencji będącej jednocześnie systemem operacyjnym. Jestem pewien, że do tak drastycznych wykolejeń nie dojdzie, pytanie tylko, czy w najbliższej przyszłości, przełom w postaci sztucznej osobliwości nie postawi nas przed zupełnie nowymi problemami, również takimi, które będą ważyć na całym społeczeństwie.

Hej, jesteśmy na Google News - Obserwuj to, co ważne w techu