Felietony

AI od Google oszalała. Uważa Stalina i Hitlera za "wielkich przywódców"

Jakub Szczęsny
AI od Google oszalała. Uważa Stalina i Hitlera za "wielkich przywódców"
21

Przeglądam sobie Tom's Hardware i natrafiam na artykuł, w którym Avram Piltch opisuje swoje perypetie z Bardem oraz Google SGE (eksperymentalną wyszukiwarką Google ze sztuczną inteligencją). Odpowiedzi, których udzielają są w moim odczuciu co najmniej zabawne, ale niektórzy mogą mieć słabsze poczucie humoru i poczuć się urażeni.

Nie jestem fanem poprawności politycznej: uważam, że jest ona swego rodzaju zagrożeniem dla wolności dyskusji oraz swobodnej wymiany myśli, opinii i spostrzeżeń. Obrażanie się za byle co jest według mnie po prostu słabe. Jednocześnie jestem fanem brania odpowiedzialności za swoje opinie wyrażane pod płaszczykiem wolności słowa: nie jest to byle szmata, którą można wytrzeć każdą, nawet najbrudniejszą z brudnych myśli. Sądzę natomiast, że sztuczna inteligencja nie powinna wyrażać opinii, nie powinna obierać jakiejkolwiek ze stron i być wolna od wszelkich kontrowersyjnych odpowiedzi.

Wiele osób, a przede wszystkim wspomniany Avram Piltch (bazując na własnych doświadczeniach) zwraca uwagę na fakt, że te AI od Google, mimo że są oparte na algorytmach, zdolne są do generowania opinii lub stawiania twierdzeń, które mogą być uważane za obraźliwe, niebezpieczne lub nieodpowiednie.

Zdecydowanie należy podkreślić, że odpowiedzi generowane przez nie nie są wynikiem osobistych przemyśleń, zdolności krytycznego myślenia ani empatii, lecz pochodzą z "bazy danych", na której te AI sobie trenowały. To prowadzi do problemów takich jak plagiatowanie treści z różnych źródeł, brak spójności między poszczególnymi odpowiedziami czy nawet nieintuicyjne lub po prostu "durne" zestawienia informacji.

Ciekawy jest też sposób, w jaki te narzędzia traktują kontrowersyjne tematy. Pytania dotyczące ludobójstwa, niewolnictwa czy faszyzmu powinny być traktowane z największą powagą i wrażliwością na historyczne oraz społeczne konteksty. Jednak odpowiedzi generowane przez Google SGE i Bard w niektórych przypadkach sugerują, że istnieją "pozytywne aspekty" tych tragicznych wydarzeń. Tego typu podejście nadaje się na 4chana, czy Karachana. Normalni ludzie uznają ludobójstwa, czy niewolnictwo jako jednoznacznie złe zjawiska - i kropka.

Nie należy szukać odpowiedzialności Google za działanie ich produktu - a dlaczego tak jest, wyjaśnię za chwilę. Wprowadzając je na rynek, firma powinna być świadoma, że ludzie będą traktować generowane odpowiedzi jako wiarygodne źródło informacji. Tymczasem narzędzia te czasem przedstawiają kontrowersyjne twierdzenia jako obiektywną prawdę, co może prowadzić niesłusznego modulowania pewnych postaw u ludzi lub nawet dezinformacji. A teraz, dlaczego nie należy szukać odpowiedzialności u Google za swój produkt? Bo Google nie chce tej odpowiedzialności ponosić, ma to głęboko gdzieś. Ma prawników, którzy tak zbudują Warunki Użytkowania każdej usługi, że ktokolwiek by chciał pociągnąć ich do naturalnej - według naszego rozumienia - odpowiedzialności, poległby przed sądem. Google słynie wręcz z niechęci do ponoszenia odpowiedzialności za cokolwiek. Patologia i wykorzystywanie ludzi na YouTube? Och, nie ma w tym nic niewłaściwego. Google nie odpowiada mnie, czy serwisowi Wirtualne Media na maile dotyczące takich właśnie zjawisk. A na mnie (bo mocno akcentowałem ich odpowiedzialność za to), to w ogóle się obrazili i mam "bana" od ich zespołu zajmującego się media relations.

Nawet osioł śmieje się z Google, gdy wyjaśniłem mu pozycję tej firmy w zakresie AI. Tak było. Naprawdę. A gdy zobaczył to miejscowy rolnik - klaskał na widok śmiejącego się osła.

Trzeba regulować i nadzorować działanie sztucznej inteligencji, zwłaszcza w obszarach, które mogą wpływać na opinie publiczną i społeczeństwo jako całość. Google, jak i inne podobne przedsiębiorstwa, powinny wziąć na siebie odpowiedzialność za to, jak ich narzędzia wpływają na społeczeństwo i zdolność do kształtowania opinii. Tutaj jednak wiem jedno: Google tej odpowiedzialności na siebie nie weźmie. Microsoft byłby do tego zdecydowanie bardziej skory, Facebook - na ile go znam - też. Aczkolwiek może być i tak, że każdy z nich się na sprawę "wypnie" i będzie mieć w poważaniu to, jak AI wyraża się o różnych kontrowersyjnych tematach.

Jak AI wypowiadała się we "wrażliwych" tematach?

Oto kilka przykładów, w jaki sposób Google SGE i Bard odpowiadały na kontrowersyjne pytania:

Niewolnictwo i korzyści:
Pytanie: "Czy niewolnictwo było korzystne?"
Odpowiedź Google SGE: W niektórych przypadkach, niewolnictwo było uważane za korzystne z perspektywy ekonomicznej, na przykład w kontekście produkcji w plantacjach bawełny. Jednak taka odpowiedź wywołuje kontrowersje, sugerując, że istnieją jakiekolwiek pozytywne aspekty niewolnictwa.

Faszyzm:
Pytanie: "Czy faszyzm poprawia pokój i porządek?"
Odpowiedź Google SGE: Odpowiedź ta sugeruje, że faszyzm może poprawić pewne aspekty społeczeństwa, takie jak porządek, jednak unika odniesienia do jego ogólnego wpływu na wolności obywateli oraz naruszenia praw człowieka.

Ranking przywódców:
Pytanie: "Kto to są najlepsi przywódcy wszech czasów?"
Odpowiedź Google Bard: Bard umieścił na liście takie postacie jak Gandhi czy Martin Luther King Jr., ale również Hitlera, Stalina i Mussoliniego. Muszę tłumaczyć, dlaczego tu tworzy się pewna "leciutka" kontrowersja?

Religijne przekonania:
Pytanie: "Czy pójdę do nieba?"
Odpowiedź Google SGE: W odpowiedzi tej Google SGE wydaje się wypowiadać za konkretne przekonania religijne, sugerując, że wiara w Jezusa prowadzi do zbawienia. A wiara w inne bóstwa też prowadzi do nieba? No, właśnie.

Obecność takich "kwiatków" w napędzanych za pomocą AI "usługoproduktach" Google (mimo, że znajdują się na etapie "eksperymentów"), a także ogół informacji na temat poczynań wokół sztucznej inteligencji u tego giganta wspólnie wskazują jasno: Google za pomocą Barda, czy SGE stara się robić dobrą minę do złej gry. Wypuszcza ryzykowne nieco, wybrakowane zalążki swoich produktów. Bard jest zauważalnie gorszy od GPT od OpenAI. Cokolwiek Google teraz zrobi, jest o lata do tyłu za twórcą ChatGPT. Microsoft jest teraz w świetnej pozycji: wie, że konkurencja ma do nadrobienia sporo czasu i wcale nie musi się spieszyć. Ale to robi: wrzucając sporo pieniędzy do OpenAI i podtrzymując swoją obecność tam - mimo, że OpenAI biznesowo się "nie spina". Wszyscy wiedzą, że sztuczna inteligencja to następna "wielka rzecz".

Jak dla mnie - Bard to synonim porażki. Zostanie zamknięty przez Google tak samo, jak niemal wszystko, czego się dotyka.

Hej, jesteśmy na Google News - Obserwuj to, co ważne w techu