Uczenie pogłębione (deep learning) oparte na sieciach neuronowych potrafi przynosić niesamowite efekty i podobno jest jedną z najbardziej zaawansowanych metod służących do rozpoznawania wzorców – no wiecie, na przykład identyfikowania czy na jakimś zdjęciu znajduje się piesek czy kotek, albo stwierdzania czy ktoś jest homoseksualistą.
Algorytm identyfikuje orientację seksualną ludzi na podstawie zdjęć
Wow! Co się stało? W jednej chwili mówimy o podkategorii uczenia maszynowego, a w drugiej przechodzimy do "wykrywacza gejów"? Stwierdzenie „that escalated quickly” pasuje tu jak nic innego.
Wykrywanie orientacji na podstawie zdjęć
Badacze ze Stanford University, Michał Kosiński oraz Yilun Wang dzielą się wynikami swojej pracy, która zgodnie z opisem ma wskazywać na to, że twarze zawierają znacznie więcej informacji o orientacji seksualnej, niż może to zostać odczytane przez ludzki mózg.
35326 zdjęć przedstawiających 14776 osób, które samodzielnie dokonały identyfikacji swojej orientacji seksualnej, pozwoliło na wykorzystanie uczenia pogłębionego do tego, żeby pozyskać informacje dotyczące rysów twarzy, a następnie znaleźć zależności między tymi rysami a tym, czy ktoś jest gejem/lesbijką. Myślę, że warto wyjaśnić, iż wspomniane zdjęcia zostały publicznie udostępnione i pochodzą z portalu randkowego (dlatego była informacja o orientacji).
Ważne jest to, że nikt nie wrzucał swoich instrukcji na zasadzie „homoseksualista charakteryzuje się takimi cechami”, wtedy taki system nie miałby najmniejszej wartości… Rzecz w tym, że to właśnie algorytmy samodzielnie wychwyciły zależności, które mogą być trudniejsze do zidentyfikowania przez człowieka. Innymi słowy system do rozpoznawania wzorców… rozpoznał wzorce (akurat w tym wypadku takie, które pozwalają powiązać czyjąś twarz z orientacją seksualną). Poza samymi rysami, pod uwagę były brane również rzeczy takie jak styl uczesania czy wyraz twarzy. Efekt końcowy jest taki, że system poradził sobie ze swoim zadaniem lepiej od ludzi.
Skuteczność tego oprogramowania ma być na poziomie 91% w przypadku oceniania mężczyzn oraz na poziomie 83% w przypadku rozpoznawania kobiet, pod warunkiem że udostępni się 5 zdjęć danej osoby (mniej zdjęć to mniejsza skuteczność w dokonywaniu poprawnej identyfikacji).
Takie badania dają do myślenia
Co prawda wysoka skuteczność opisanego systemu jest na tak zadowalającym poziomie tylko w przypadku sytuacji, kiedy ma dokonać identyfikacji spośród dwóch osób, jedna na pewno jest heteroseksualna, a druga na pewno jest homoseksualna. Nikt nie wdraża tego do metra, gdzie spośród tłumu osób należy wyłapywać ich orientację. Może wtedy podobny system by sobie kompletnie nie radził?
Dlaczego to daje do myślenia? Bo moim zdaniem pokazuje możliwości uczenia maszynowego, które jak widać są naprawdę spore i nieograniczone jakimś konkretnym tematem. Systemy można wytrenować w rozpoznawaniu nieprawidłowości na obrazach ludzkich organów, dzięki czemu pozwolą na skuteczne wykrywanie np. nowotworów. Można je również wytrenować w prowadzeniu samochodów, filtrowaniu spamu ze skrzynek pocztowych, rozpoznawaniu ludzkiej mowy, albo jak się okazuje w rozpoznawaniu orientacji seksualnej na podstawie zdjęć.
Najlepsze jest chyba to, że uczenie maszynowe często pozwala na uzyskanie lepszych efektów niż gdyby danej czynności podejmowali się ludzie.
Hej, jesteśmy na Google News - Obserwuj to, co ważne w techu