Jeśli zastanawialiście się na ile można ufać algorytmom, to te obsługujące platformę Facebook właśnie bardzo mocno to zaufanie nadszarpnęły. Coś takiego nie powinno się nigdy wydarzyć.
Facebook przeprasza za swój algorytm AI
A jest za co. Sztuczna inteligencja działająca w ramach serwisu społecznościowego Facebook oznaczyła etykietą wideo opublikowane przez Daily Mail, na którym występowali czarnoskórzy mężczyźni. Widzowie po obejrzeniu materiału zobaczyli monit z zapytaniem, "czy chcieliby w przyszłości oglądać filmy o naczelnych". Dla przypomnienia - naczelne (Primates) to "rząd ssaków obejmujący małpiatki, małpy szerokonose oraz małpy wąskonose, do których należą człowiekowate i człowiek". I choć oczywiście formalnie ludzie należą do tej grupy, to odbiór podpisu jest jasny - czarnoskórzy mężczyźni zostali oznaczeni w materiale wideo jako małpy.
Serwis społecznościowy Zuckerberga przeprosił za "niedopuszczalny błąd", wyłączył również funkcję rekomendacji odpowiedzialnej za wyświetlenie wiadomości. Facebook sprawdza dlaczego algorytm zachował się tak a nie inaczej celem uniknięcia podobnych wpadek w przyszłości. Rzeczniczka Facebooka, Dani Lever mówi wręcz wprost, że mimo ulepszeń wprowadzonych do algorytmów sztucznej inteligencji firma wie, że nie są one idealne i wciąż wymagają pracy.
Generalnie algorytmy odpowiedzialne za rozpoznawanie twarzy nie są idealne i zdarza się, że błędnie interpretują płeć czy rasę. Serwis Engadget przypomina, że w ubiegłym roku taka błędna identyfikacja doprowadziła do bezprawnego aresztowania dwóch czarnoskórych mężczyzn w Detroit. W 2015 roku Zdjęcia Google natomiast oznaczyły zdjęcia czarnoskórych osób podpisując je jako "goryle", co doprowadziło do ocenzurowania przez Google słowa "goryl" w wynikach wyszukiwania i tagów obrazów w sieci - powiedziałbym, że to raczej takie średnie rozwiązanie problemu.
Nie znaczy to jednak, że Facebook nie robi nic celem usprawnienia algorytmów, bo jest wręcz przeciwnie. Firma zatrudniła nawet profesjonalistów z zakresu oświetlania zdjęć i oznaczania odcieni skóry by nauczyć AI różnic w wyglądzie poszczególnych grup etnicznych. Jak jednak widać, mimo tego sztuczna inteligencja wciąż nie jest idealna i zdarza jej się popełniać błędy. Do przejęcia przez SkyNet kontroli nad światem jest więc jeszcze długa droga.
Hej, jesteśmy na Google News - Obserwuj to, co ważne w techu