23

Ale draka. Google wykorzystywało czarnych bezdomnych do trenowania AI

Google Pixel 4 ma zostać wyposażony w zaawansowany system rozpoznawania twarzy oparty na sztucznej inteligencji. I dobrze, bo najprawdopodobniej dzięki temu ta technologia stanie się bardziej "cywilizowana" w świecie Androida, a Pixel 4 referencyjnym urządzeniem, do którego będzie się równało technologie partnerów OEM-owych Google. Jednak sposób trenowania AI stojącej za tą funkcją jest co najmniej kontrowersyjny.

Okazuje się, że sporym problemem było nauczenie AI rozpoznawania twarzy u osób o ciemniejszym odcieniu skóry. Google zdecydowało się więc zawiązać współpracę z firmą Randstad, na mocy której jej pracownicy mieli za zadanie nagrywać materiały wideo z ciemnoskórymi osobami według wytycznych – tak, aby można było za ich pomocą trenować sztuczną inteligencję.

Czytaj więcej: Wszystko o Google Pixel 4 i 4 XL

Google odpowiedziało na zarzuty i potwierdziło, że była to inicjatywa autorstwa Google, jednak prace wykonywał dla giganta podwykonawca, za którego poczynania nie odpowiada. Całość miała związek z rozwojem urządzenia Google Pixel 4.

Osoby, które zdecydowały się na udostępnienie swojej twarzy Google otrzymywały bon na zakupy do wysokości 5 dolarów w Starbucks. Wszystko byłoby dobrze, gdyby podwykonawca nie stosował kontrowersyjnych praktyk: pracownicy mieli być nachalni, wykorzystywali także ułomność lub nietrzeźwość osób spotykanych na ulicy. W skrócie: wiele z tego, co otrzymała do przerobienia sztuczna inteligencja to materiały pochodzące od czarnoskórych bezdomnych. Program był prowadzony w Atlancie (stan Georgia).

Pracownikom polecono uderzać do bezdomnych, bo „oni nie zdają sobie sprawy z tego, co jest grane”

Pracowników zachęcano do pośpiesznego zadawania pytań z kwestionariusza i zawierania umów oraz do odchodzenia, jeśli ludzie zaczęli nabierać podejrzeń, – stwierdzili pracownicy zatrudnieni na zlecenie.

Źródło

Google

To głęboko nieetyczne i niewłaściwe – liderzy z Randstad mieli otwarcie mówić do swoich pracowników, że bezdomni mają gdzieś prywatność i najprawdopodobniej po kilku dniach zapomną o tym, że brali udział w takim badaniu. Nie będą też raczej rozmawiać z mediami o tym, że Google coś takiego zainicjowało – bo któż chce rozmawiać z nierzadko nietrzeźwymi i brzydko pachnącymi bezdomnymi?

To przypomina mi odrobinę „odbębnianie” praktyk na studiach. Dostawaliśmy listę adresów, w których jako studenci mieliśmy do przeprowadzenia badania ankietowe – ale nie zawsze nam otwierano. Niektórzy studenci „wycwanili się” i jeżeli dostali przydział na badania w szemranych dzielnicach, wystarczyło przejść się po ulicy i znaleźć lekko zmęczonego życiem, odrobinę nietrzeźwego człowieka. Z nim ankietę przeprowadzało się szybko, potem fejkowe dane, numer telefonu i voila. Wszystko po to, by w razie kontroli terenowej kierownika badań na uczelni „nie wpaść”. Badanie się odbyło? Odbyło, wszystko jest w porządku.

Google ma teraz trudny orzech do zgryzienia: nie dość, że podwykonawca firmy wykorzystywał niewiedzę osób gorzej sytuowanych, to w dodatku… należało dodatkowo wytrenować AI do rozpoznawania twarzy ciemnoskórych. Rasizm i cwaniactwo w jednym – ciekawe, czy ktoś w następnym tygodniu wypomni to Google przy okazji premiery Piksela 4.