Microsoft

Technologia przewidująca przestępstwa w przyszłości już powstaje... w Microsofcie

Tomasz Popielarczyk
Technologia przewidująca przestępstwa w przyszłości już powstaje... w Microsofcie
Reklama

Jeżeli oglądaliście film "Raport Mniejszości" z pewnością wasza wyobraźnia wskoczyła własnie na wyższe obroty. Technologia przewidująca zachowania lud...

Jeżeli oglądaliście film "Raport Mniejszości" z pewnością wasza wyobraźnia wskoczyła własnie na wyższe obroty. Technologia przewidująca zachowania ludzkie pod kątem skłonności do popełnienia przestępstwa już istnieje! Pracuje nad nią Microsoft, a pierwsze testy wykazują niesamowicie wręcz wysoką skuteczność.

Reklama

Microsoft inwestuje w sztuczną inteligencję nie od wczoraj. Na YouTube pojawiło się bardzo interesujące nagranie z wystąpieniem Jeffa Kinga, który zajmuje w Microsofcie stanowisko senior programme managera. Opowiada on o ambicjach firmy dotyczących opracowania i wdrożenia mechanizmu przewidującego ludzkie zachowania. Efekty są już widoczne teraz, bo wewnątrz firmy testowane jest oprogramowanie, które potrafi przewidzieć, czy były więzień w ciągu 6 miesięcy od wyjścia na wolność popełni kolejne przestępstwo. W analizie branych jest pod uwagę wiele czynników, jak przynależność do gangów, udział w terapiach odwykowych czy zachowanie w więzieniu. Co najciekawsze, skuteczność tego mechanizmu ma wynosić aż 91 proc.

Nie jest to pierwszy taki projekt Microsoftu. Wcześniej firma inwestowała przecież w Cortanę, która potrafiła na podstawie historii wyników oraz statystyk zawodników przewidywać wyniki meczów w lidze NFL. Trwają też prace nad mechanizmem przewidującym reakcję posiadaczy Xboksów na określone sytuacje w grach, po uwzględnieniu tego, jak reagowali dotychczas. Widać zatem, że jest to szczególnie interesujący firmę z Redmond obszar rozwoju. Pytanie, w jakim kierunku to zmierza. Z jednej strony bowiem otrzymujemy praktyczne z punktu widzenia społeczeństwa narzędzie. Lecz z drugiej to instrument, który trzeba w jakiś sposób monetyzować - trudno wierzyć w całkowitą bezinteresowność i działanie "dla dobra ludzkości" w przypadku tak wielkiej korporacji. Z tymi technologiami stać może chociażby idea gromadzenia jeszcze większej niż dotychczas liczby informacji na temat ludzi. To pozwoli przewidzieć ich zachowanie i na tej podstawie przygotować np. stosowny komunikat reklamowy lub odpowiednią ofertę. Idąc dalej, komputer kiedyś może sam zacząć analizować nasze potrzeby i natychmiast na nie odpowiadać - bez konieczności jakiejkolwiek interakcji z naszej strony.


Wróćmy jednak do wspomnianych przestępstw. Hanni Fakhoury z Electronic Frontier Foundation wyraża duże zaniepokojenie tego typu mechanizmami. Jego zdaniem mogą one prowadzić do wielu nadużyć i nieporozumień. Jak sam tłumaczy:

Obawiam się, że tego typu programy tworzą środowisko, w którym policja może pojawić się pod drzwiami kogokolwiek z jakiegokolwiek powodu.

Wtóruje mu Jay Stanley, analityk z American Civil Liberties Union, który mówi o konieczności utrzymania najwyższego poziomu przejrzystości i transparentności w działaniu tego typu technologii. Tylko wtedy możliwe będzie sprawowanie nad nią efektywnej kontroli.

I trudno odmówić mu racji. Co prawda, szanse na to, że ziści się scenariusz rodem z "Raportu Mniejszości" są niewielkie. Szczególnie, jeżeli weźmiemy pod uwagę zasady funkcjonowania organów prawa na świecie oraz te symboliczne, ale jakże wiele zmieniające, 9 proc. szansy na popełnienie błędu. Drugi z czynników da się wyeliminować, ale pierwszy - już niekoniecznie. Sytuacja zatem, w której naszym życiem nas poziomie społeczeństwa będą rządziły algorytmy pozostaje zatem póki co scenariuszem filmowym i chyba lepiej, aby tak zostało.

Reklama

Hej, jesteśmy na Google News - Obserwuj to, co ważne w techu

Reklama