Felietony

Sztuczna inteligencja: przez nią coraz mniej myślimy i działamy bez zastanowienia.

Karol Woś
Sztuczna inteligencja: przez nią coraz mniej myślimy i działamy bez zastanowienia.
9

Z jednej strony podajemy dane, z drugiej strony otrzymujemy wyniki. Tak w skrócie można opisać działanie różnorakich algorytmów. Jednak w przypadku AI pojawia się pewien "drobny" problem, nie do końca wiemy co dzieje się w środku. A więc czy nasze decyzje oparte na niej zawsze są słuszne?

Sztuczna inteligencja i bezmyślne zaufanie algorytmom

Algorytmy sztucznej inteligencji opanowały zdolność do gry na naszej psychologii. Popychają nas w kierunku bezmyślnego polegania na ich decyzjach i działania na podstawie odczuć, które mogłyby być zupełnie inne, gdybyśmy podejmowali te same decyzje, będąc w pełni poinformowanymi. Dzieje się tak głównie dlatego, że jesteśmy nastawieni na jak najszybsze uzyskanie odpowiedzi, żeby móc przejść do rozwiązywania kolejnych problemów.

Ślepa wiara w algorytmy może mieć negatywne skutki na wiele sposobów. Kiedy na przykład zaczniemy wierzyć we wszystko i lubić to, co wyświetla się w naszym kanale wiadomości na Facebooku, który to jest oparty na algorytmach sztucznej inteligencji, będzie to prowadzić do wyświetlania się tylko materiałów potwierdzających nasze poglądy i uprzedzenia. Możemy przez to stać się mniej tolerancyjni wobec poglądów odmiennych od naszych.

W przypadku innych serwisów, systemy rekomendacji mogą popychać nas podświadomie w kierunkach, o których nawet byśmy nie pomyśleli. Jaka książkę przeczytać, która piosenkę pobrać, z kim iść na randkę. Z jednej strony można powiedzieć, że takie algorytmy służą zarówno sprzedającym, jak i kupującym. Konsumenci oszczędzają czas i wysiłek na brodzenie przez ogromne możliwości rynku cyfrowego. Firmy natomiast budują lojalność i napędzają sprzedaż dzięki zróżnicowanym doświadczeniom swoich klientów. Jak pokazują jednak różne badania, rekomendacje nie tylko odzwierciedlają preferencje konsumentów, ale w rzeczywistości również je kształtują. Podobnie jak w przypadku Facebooka mogą one podsycać uprzedzenia i wpływać na nas w nieoczekiwany sposób.

Jeśli chodzi o dziedziny takie jak bankowość czy sądownictwo karne, to ślepa wiara w algorytmy może być jeszcze bardziej szkodliwa. Za przykład niech posłużą chociażby nieuzasadnione odrzucenie wniosku kredytowego lub też niesprawiedliwy wyrok wydany przeciwko oskarżonemu.

W miarę ewolucji AI musimy aktywnie angażować się w kwestionowanie działania algorytmów, tego co oznaczają ich decyzje, a także, w jaki sposób stronniczy zestaw danych treningowych może wpływać na wyniki.

Powiedział Bernhardt Trout profesor inżynierii chemicznej z MIT zajmujący się etyką sztucznej inteligencji. Dodał również:

Musimy pamiętać, że to wszytko są matematyczne algorytmy. Jednak istnieje dobry argument przeciwko temu, aby myśleć, że wszystko w życiu ludzkim sprowadza się do matematyki.

Kto wie, jak to się stało?

Jednym z głównych wyzwań, jakie stoi przed rozwojem sztucznej inteligencji, jest właśnie wyjaśnienie, w jaki sposób są podejmowane decyzje. Algorytmy głębokiego uczenia (deep learning) opierają logikę swojego działania na dostarczanych im danych. Działają one w bardzo skomplikowany sposób, często niejasny do końca nawet dla ich twórców. Co ma szczególne znaczenie w przypadku rozwiązywania problemów etycznych.

Zdolność stwierdzenia, kiedy system AI podjął lub też został użyty do podjęcia decyzji, a także interpretacja i wyjaśnienie logiki, która wpłynęła na jej podjęcie, staje się coraz ważniejsze w tym kontekście. Nie można skutecznie dochodzić zadośćuczynienia za szkody spowodowane niewłaściwym użyciem systemu AI. Chyba że wiesz, że został on użyty lub też jak jego użycie wpłynęło na wynik.

Powiedział Marc Etienne Ouimette z Element AI, kanadyjskiej firmy zajmującej się budową oprogramowania opartego o sztuczną inteligencję. Firma zajmuje się także oceną skutków i badaniem efektów użycia AI.

Ten brak przejrzystości w zrozumieniu działania algorytmów sztucznej inteligencji utrudnia również dostrzeżenie i rozwiązanie problemów etycznych w samych algorytmach. W jednym z przypadków algorytm stworzony do przewidywania działań przestępczych, po cichu wykorzystywał kody pocztowe do stwierdzenia, z jakim prawdopodobieństwem podejrzany popełni kolejne przestępstwo. W kolejnym przypadku algorytm wykorzystany do rekrutacji w firmie Amazon zmniejszał szanse na zatrudnienie, gdy wykrył w CV kandydata słowo "kobiety". Niedawno natomiast okazało się, że nowa karta kredytowa wydawana przez Apple jest stronnicza w stosunku do kobiet, oceniając ich zdolność kredytową na 20-krotnie mniejszą niż mężczyzn, ze względu na zastosowane algorytmy sztucznej inteligencji. Podejmowane są jednak wysiłki w celu stworzenia możliwych do wytłumaczenia modeli AI takie jak na przykład projekt agencji DARPA, ramienia badawczego amerykańskiego Departamentu Obrony.

Zobacz również: Sztuczna inteligencja: jak firma może ją wykorzystać w mediach społecznościowych?

Big tech się martwi?

Zainteresowanie AI, a także jej aspektami etycznymi, nie byłoby tak duże, gdyby nie zaangażowanie największych firm i postaci z branży technologicznej. Bill Gates i Elon Musk, a także naukowcy, tacy jak Stuart Russell i nieżyjący już Stephen Hawking ostrzegają nas przed niezamierzonymi skutkami rozwoju sztucznej inteligencji. Według nich może ona nawet zagrozić naszemu istnieniu. Giganci technologiczni, tacy jak Microsoft i Google, zostali zmuszeni do wyjaśnienia swojego podejścia do sztucznej inteligencji i opracowania etycznych wytycznych, szczególnie w odniesieniu do sprzedaży ich technologii agencjom rządowym. Ważne jest również, aby firmy posiadające wiedzę techniczną współpracowały z organami regulacyjnymi, aby pomóc im zrozumieć naturę zagrożeń związanych z tą technologią.

Element AI niedawno nawiązało współpracę z Fundacją Mozilli. Chcą opracować wspólnie listę rekomendacji dla rządów i firm dotyczących praw człowieka w zarządzaniu opartym o AI. Współpraca ta ma się koncentrować na postępach w dziedzinie badań prawnych, zarządzania oraz technicznych elementach dotyczących zaufania do danych generowanych przez systemy sztucznej inteligencji.

Firmy technologiczne jednak, jak zauważa profesor Trout z MIT, najczęściej jednak kierują się względami komercyjnymi. Dlatego jak ocenia, Google wycofało się ostatnio z wartego 10 miliardów dolarów kontraktu z amerykańskim Departamentem Obrony na budowę chmury dla Pentagonu. Współpraca miałaby również obejmować prace nad rządowym tajnym i zapewne nieetycznym wykorzystaniem sztucznej inteligencji, czemu sprzeciwili się pracownicy giganta.

Zobacz również: Facebook wyjaśnia jedną z największych tajemnic: jak działają algorytmy doboru wpisów

Podsumowując

Wykorzystując AI, którego działanie jest wytłumaczalne, pewni badacze bezpieczeństwa w sektorze bankowym odkryli, że jeśli dana osoba korzysta z przeglądarki Chrome, prawdopodobieństwo oszustwa transakcji jest większe niż w przypadku korzystania z przeglądarki Internet Explorer lub Safari. A to dlatego, że jako osoby techniczne cyberprzestępcy znacznie częściej korzystają z Chrome niż z preinstalowanej przeglądarki systemu operacyjnego.

Sztuczna inteligencja ma ludzkości wiele do zaoferowania już teraz. Rozpoznawanie głosu, pisma i obrazu. Tłumaczenie na inne języki czy też systemy eksperckie to tylko kilka przykładów możliwości, jakie daje nam już dziś sztuczna inteligencja. Jednak nie wszystkie rozwiązania zostały na tyle dobrze rozwinięte i dopracowane, żebyśmy mogli w całości pokładać w nich swoje zaufanie. Warto o tym pamiętać i czasem się zastanowić czy decyzje, które na podstawie różnych algorytmów AI podejmujemy, są naprawdę świadome i czy leżą w naszym najlepszym interesie.

A co Wy o tym myślicie, może chcielibyście przeczytać więcej na ten lub inny nurtujący Was temat? Dajcie znać w komentarzach. Zachęcam również do zapoznania się z innymi wpisami mojego autorstwa.

Pozdrawiam Karol Woś.

Źródło: pcmag.com

Grafika 3 powstała z połączenia:

1. DFID CC BY 2.0
2. Duncan.Hull CC BY-SA 4.0
3. NASA Domena publiczna

Hej, jesteśmy na Google News - Obserwuj to, co ważne w techu