AI w nowojorskim metrze ma wykrywać osoby z bronią. Problem polega na tym, że ... nie działa.
Sztuczna inteligencja udowodniła swoją "skuteczność". Jest zagrożeniem dla wszystkich
Żyjemy w erze AI i, jako konsumenci, nic na to nie poradzimy. Sztuczna inteligencja wsadzana jest dziś wszędzie i od lat proklamuje się, że to właśnie ona jest szansą na kolejny przełom w takich dziedzinach jak medycyna, inżynieria czy IT. I trzeba przyznać, że w tych zastosowaniach, które do tej pory są pokazywane, AI sprawuje się... dobrze. Generowanie grafik, tekstów czy nawet wideo jest już na dobrym poziomie, a influencerki AI zarabiają kosmiczne pieniądze.
Polecamy na Geekweek: USA chcą ustanowić nowy "czas księżycowy". Wielkie przemiany
Jednocześnie, AI dziś prezentowana jest jako rozwiązanie na całe zło tego świata, więc chce się ją wykorzystywać wszędzie, a wszystko "z AI" jest przedstawiane, jako lepsze, niż "bez AI". I to jest spory problem, ponieważ AI jaką znamy jest rozwiązaniem, na którym tak naprawdę nie wiemy, czy możemy polegać. W niektórych rozwiązaniach może sprawdzić się dobrze, a w niektórych — wręcz katastrofalnie.
Świetnie pokazał to ostatni przykład, który z resztą opisywaliśmy przed kilkoma dniami. W Nowym Yorku detektory wyposażone w AI miały moniotorować wejścia do metra, by sprawdzać, czy ktoś nie wnosi tam broni. Firma Evolv twierdziła, że ich "system jest w stanie rozpoznać sygnatury wszystkich rodzajów broni palnej, bomb oraz dużych noży taktycznych". System od samego początku był kontrowersyjny, jednak te kontrowersje mogłyby zostać zbite, jeżeli AI faktycznie wykrywałaby wnoszoną broń.
Cóż... wyniki w tym wypadku mówią same za siebie
Jak podaje The Verge, system, który został zainstalowany w metrze jest tym samym, który został zainstalowany w szpitalu w Bronxie w 2022 roku. Dostaliśmy właśnie wyniki tego, jak działa w praktyce i w tym wypadku rezultaty są po prostu tragiczne. W ciągu 7 miesięcy, kiedy były aktywne, 50 000 ze 194 000 skanów było pozytywnych. Jednak 85 proc. z nich (ponad 42 tys.) to tzw. false positive, czyli sytuacja gdy system alarmował, że ktoś ma broń, podczas gdy jej nie miał.
W stosunku to pozostałych 15 proc. czyli 7500 osób, 7200 były to osoby, które miały prawo taką broń mieć, bo byli to po prostu policjanci. Zaletwie 300 (a dokładnie 295) z 50 000 pozytywnych wskazań faktycznie miało przy sobie broń. To oznacza skuteczność na poziomie, uwaga, 0,006 proc., a ta jest zapewne jeszcze niższa, ponieważ nie ma informacji o tym, ile osób wniosło na teren placówki broń, nie będąc wykrytym. Firma, Evolv zmaga się z tego powodu z pozwem zbiorowym od akcjonariuszy, którzy uwierzyli w zapewnienia firmy o większej skuteczności ich detektorów, podczas gdy testy pokazały zupełnie co innego.
To też pokazuje jedną bardzo ważną rzecz. Jeżeli będziemy bez refleksji ufać rozwiązaniom opartym na AI, szybko okaże się, że w takich krytycznych sytuacjach oddajemy np. naszą prywatność nie za bezpieczeństwo, ale za ułudę bezpieczeństwa i system, który jest dalece mniej skuteczny niż poprzednie rozwiązania. Jest to świetne pokazanie, że AI nie nadaje się do wszystkich zadań, a implementacja tego rozwiązania w absolutnie każdej dziedzinie życie nie jest dobrym pomysłem.
Niestety, ogólne przebicie się AI do świadomości społecznej powoduje, że takich przypadków, gdzie ma ona być magicznym rozwiązaniem na wiele problemów, będzie tylko przybywać. Dlatego warto być zarówno sceptycznym, jak i czujnym, ponieważ wykorzystana właściwie, AI potrafi czynić cuda. A niewłaściwie - stanowić duże zagrożenie.
Hej, jesteśmy na Google News - Obserwuj to, co ważne w techu