gboard
9

Sztuczna inteligencja Google i jej fetysze. Czy SI nauczymy „kultury”?

Sztuczna inteligencja oraz uczenie maszynowe wykorzystywane są w coraz większej liczbie dziedzin. Obecnie w wielu aplikacji znajdziemy ich implementacje, które mają usprawnić działanie oraz zapewnić lepsze wrażenia z użytkowania. Czy jednak możemy stworzyć rozwiązanie idealnie pozbawione emocji i jakiejkolwiek ekspresji? Ostatnio Gboard pokazał swoje kolejne oblicze.

Neutralnie, bez emocji, kulturalnie

Założenia stojące za implementacją uczenia maszynowego są proste. Przede wszystkim twórcy muszą nakładać swoiste filtry na cały proces, aby uniknąć niechcianych sytuacji. Na przykład w przypadku klawiatur oraz podpowiedzi przez nich proponowanych nie powinny pojawiać się nieodpowiednie, niestosowne zwroty. Kogoś mogą urazić, obrazić i tak dalej. Ogółem chodzi o pełną neutralność, aby każdy czuł się dobrze, bezpiecznie i był zachwycony nowoczesnością danej usługi. Tyle teorii.

W praktyce jednak sztuczna inteligencja i wszystkie procesy na nią się składające mogą wymsknąć się pewnym regułom. Sam tego nie uważam za nic złego, ponieważ może pozwolić to na szybszy rozwój, lepsze dostosowanie wyświetlanych elementów czy skuteczniejszy algorytm. Ostatnio niektórzy użytkownicy klawiatury Gboard mogli zauważyć jedną swoistą nowość w słowniku. Warto też wspomnieć, że chodzi o anglojęzyczną wersję, więc w szczególności Amerykanie wszczęli alarm, że coś tu nie gra.

gboard

Otóż Gboard domyślnie opiera się o wiedzy od wszystkich osób i na ich podstawie tworzy najczęściej używane zwroty, ale z tej listy zawsze stara się usuwać niepoprawne sformułowania. Tu jednak nie wszystkie sytuacje można przewidzieć i im odpowiednio wcześniej zapobiec. Cała akcja stała się po tym, jak ludziom po słówku sit (z ang. siedzieć) proponowało on my face (z ang. na twarzy). Nawet tym, którzy jeszcze nic nie pisali w Gboard. Jak przystało na wagę sytuacji, głos zabrał przedstawiciel Google. Podkreślił on, że klawiatura unika takich propozycji, ale język ludzki jest na tyle złożony, że trudno stworzyć zawsze działający system filtrów w systemie uczenia maszynowego.

Czy sztuczna inteligencja może być nijaka?

W całej historii można przypomnieć jeszcze inne wpadki. Tu na pewno aż prosi się o przywołanie historii 19-letniej Tay, bota Microsoftu, działającego na Twitterze. Uczyła się na bazie tweetów. Ludzie jednak to skrzętnie wykorzystali, a brak stosownej ochrony algorytmu spowodował to, że dziewczyna stała się rasistką oraz zafascynowała się Hitlerem. Finalnie Amerykanie wyłączyli bota, ponieważ była to kiepska reklama. Z jednej strony to pokazuje, że twórcy muszą przemyśleć każdy detal, a z drugiej, że sztuczna inteligencja staje się wręcz zbyt ludzka i powiela niektóre złe cechy. Niby dobrze, że uczenie maszynowe umożliwia tworzenie jakichś „osobowości”, ale chyba niewiele osób uzna to za szczególną zaletę.

Wracając do Google, trzeba przypomnieć historię związaną ze Zdjęciami Google. W 2015 roku chwalili się  nową funkcję, która pozwalała automatycznie grupować i tagować zdjęcia na podstawie treści. Wtedy Jacky Alcine dodał tam starsze zdjęcia i odkrył, że jego selfie z koleżanką trafiło do folderu Goryle. Podobna wpadka przydarzyła się Flickr, na którym to czarnoskóre osoby identyfikowano jako małpy. Ten portal również zasłynął z tego, że obóz koncentracyjny uznał za obiekt sportowy i drabinkę na plus zabaw. Kolorowe historie.

Na pewno rozwój w tej dziedzinie jest imponujące. Podoba mi się, że wszystkie liczące się firmy angażują się w cały proces i pewne problemy wynikają jeszcze z pewnego niedopracowania. Zastanawiam się jednak, czy społeczeństwo byłoby w stanie zaakceptować jakąkolwiek sztuczną inteligencję z własną osobowością. Tu chyba liczy się wyłącznie nijakość.

źródło: Android Police