Sztuczna inteligencja zdaje się mieć szereg zastosowań. Tym razem San Francisco chce ją wykorzystać jako narzędzie antyrasistowskie, które ma poprawiać policyjne notatki.

Antyrasizm na każdym kroku
San Francisco postanowiło sprawdzić, czy rzeczywiście algorytmy uczenia maszynowego potrafią się do czegoś przydać. Tu dokładnie będą najpierw weryfikować notatki policjantów. Wszystko po to, aby uzyskać z nich informacje o rasie danej osoby, kolorze jej włosów i oczu. Do tego wszystkiego dochodzą lokalizacje, w których doszło do danego zdarzenia, imię i nazwisko oraz sąsiedztwo. Sztuczna inteligencja będzie tu miała za zadanie oczyścić dane ze wszystkich zbędnych elementów.
Start działania systemu ma nastąpić 1 lipca. Jestem ciekaw, jak rozwiązanie to będzie sobie radzić w praktyce. Sam antyrasizm jest silnym hasłem, ale rzeczywiście może to być element poważniejszej strategii i zautomatyzowania pewnych procesów w pracy policji. Nie da się ukryć, że powtarzalne czynności powinny być automatyzowane i dzięki temu będzie mniej błędów, a ludzie będą mogli skupić się na ważniejszych rzeczach.
Według prokuratora okręgowego w San Francisco, George'a Gascóna, widać zdecydowanie różne podejście do osób w zależności od ich płci, koloru skóry czy brzmienia ich nazwiska. Na przykład, Hernandez wskazuje na latynoskie pochodzenie i teoretycznie może wpłynąć na zachowanie policjanta i jego ocenę sytuacji. Warto dodać, że na razie w systemie wszystkie notatki będą miały zanonimizowane dane o policjantach. Niewątpliwie na razie mamy do czynienia z badaniem tego, czy taki system ma rację bytu.
Przeczytaj również: Sztuczna inteligencja w sądzie.
W dłuższej perspektywie to narzędzie ma stać się open-sourcowe. Za jego stworzeniem stoi Alex Chohlas-Wood i zespół ze Stanford Computational Policy Lab, którzy już wcześniej przygotowali algorytm do wyszukiwania wzorców zbrodni w aktach spraw. Autorzy mówią, że ich dzieło działa teraz na następującej zasadzie z wykorzystaniem lekkiego webserwisu: rozpoznawane są słowa z użyciem widzenia komputerowego, a następnie charakterystyczne słowa są zastępowane przez neutralne odpowiedniki, np. Lokalizacja czy Oficer #1. Warto dodać, że rozwiązanie to posłużyło już w pierwszej sprawie, w której decydowano, czy oskarżony trafi do więzienia.
Sztuczna inteligencja jako idealny asystent
Interesujące, jak takie algorytmy uczenia maszynowego sprawdzą się w praktyce. Szanse na sukces są spore i w dłuższej perspektywie mogą znacznie przyspieszyć działanie wymiaru sprawiedliwości. Mimo wszystko trzeba najpierw zapewnić odpowiednią infrastrukturę, aby jeden atak cybernetyczny nie doprowadził do wyłączenia całego systemu, jak miało to miejsce w Filadelfii.
Zobaczymy również, że sztuczna inteligencja realnie pomoże w usunięciu błędów, wynikających z cech danej osoby. Dotychczas SI zbyt dokładnie uczyło się od ludzi i prowadziło do jeszcze większych nieporozumień, więc ciekawe, jak z takim problemem poradził sobie zespół deweloperów. Cóż, nie pozostaje nic innego, jak poczekać na udostępnienie narzędzia i sprawdzenie go na własną rękę.
źródło: The Verge
Przeczytaj również: Sport wymyślony przez sztuczną inteligencję.
Hej, jesteśmy na Google News - Obserwuj to, co ważne w techu