Sztuczna inteligencja

AI miało ulepszyć jej zdjęcia a zmieniło… rasę

Patryk Koncewicz
AI miało ulepszyć jej zdjęcia a zmieniło… rasę
Reklama

Zdjęcie studentki skłoniło internautów do dyskusji na temat rasowych uprzedzeń sztucznej inteligencji.

Wraz z szybkim rozwojem narzędzi AI zaczęły pojawiać się rozmaite aplikacje do edycji selfie. Sztuczna inteligencja pozwala zamienić nasz wizerunek w postać z komiksów, filmów sci-fi, a nawet Barbie. Rona Wang – studentka MIT – aż tak wygórowanych wymagań nie miała, oczekując jedynie lekkiego podrasowania zdjęcia przed publikacją na LinkedIn. Nie spodziewała się jednak, że AI całkowicie zmieni jej… rasę.

Reklama

AI ma problem z rasowym uprzedzeniem?

Wiemy, że sztuczna inteligencja nie radzi sobie do końca z generowaniem ludzkiego wizerunku, zwłaszcza w momencie, gdy musi poprawnie odwzorować palce lub włosy. Ulepszanie zdjęć wychodzi AI jednak całkiem nieźle – tu jednej zmarszczki mniej, tam wygładzone niedoskonałości. Dokładnie takiej edycji oczekiwała Rona Wang – 24-letnia absolwentka MIT – prosząc sztuczną inteligencję z oprogramowania Playground AI o przygotowanie fotki do publikacji na LinkedIn. Istotne w tej historii jest to, że Rona Wang jest pochodzenia azjatyckiego co wyraźnie widać po jej rysach twarzy. Sztuczna inteligencja całkowicie to jednak pominęła, tworząc… sami zobaczcie co:

Osoba po prawej stronie kompletnie nie przypomina oryginału. AI nie tylko zmieniło odcień skóry, nadając jej bardziej kaukaski charakter, ale przede wszystkim powiększyło oczy, kolorując je na niebiesko – sztuczna inteligencja także zwęziła nieco usta studentki i lekko powiększyła nos.

Wang opublikowała zdjęcie na Twitterze, co sprowokowało internautów do dyskusji na temat rasowej stronniczości AI. Studentka obawia się, że w przypadku zautomatyzowanej rekrutacji pracowników (stosowanej już w niektórych firmach) sztuczna inteligencja chętniej wybrałaby kandydata rasy białej.

„Moją pierwszą reakcją na widok wyniku było rozbawienie. Cieszę się jednak, że wywołało to szerszą dyskusję na temat stronniczości sztucznej inteligencji i tego, kto jest lub nie jest objęty tą nową falą technologii” – Rona Wang

W tych zarzutach tkwi ziarno prawo. Przeprowadzony na DALL-E2 eksperyment udowodnił, że oprogramowanie ma problem z uprzedzeniami związanymi z płcią i rasą. AI poproszono o wygenerowanie osoby u władzy, bez dodatkowych wskazówek. Wyniki w 97% przedstawiały mężczyzn rasy białej. Badacze przekazali, że dzieje się tak z powodu stronniczego zbioru danych, na których szkolone było AI – modelów językowych nie można jednak „pouczać”, dlatego praca nad rozwiązaniem tej kwestii nie należy do najłatwiejszych.

Stock image from Depositphotos

Reklama

Hej, jesteśmy na Google News - Obserwuj to, co ważne w techu

Reklama