google fast pair
0

Sztuczna inteligencja Google. Zwycięży dobro czy zło?

Sztuczna inteligencja to gorący temat. Z jednej strony trwają badania nad jej wyższymi wcieleniami, ale z drugiej jesteśmy wręcz bombardowani komunikatami o aplikacjach z niej korzystających, podczas gdy w praktyce niewiele łączy je z SI. Warto jednak zwrócić uwagę na Google i ostatnie zamieszanie wokół nich. Skoro już stosowny komunikat wydał Sundar Pichai, CEO Google, sprawa musi być poważna.

Don’t be evil

Doskonale znana wszystkim fraza została oficjalnie usunięta z polityki firmy w 2015 roku. Towarzyszyła ona Google od początku aż do momentu pojawienia się Alphabet, firmy nadrzędnej, łączącej wszystkie działy. Jednak hasło głoszące Nie bądź złym pozostało w sercach pracownikach, którzy zaczęli się sprzeciwiać współpracy z Pentagonem w sprawach bezpośrednio związanych z wojskiem.

Warto na wstępie zaznaczyć, że grupa pracowników zrezygnowała nawet z pracy z tego względu, a ponad 3000 osób z firmy podpisało petycję, aby zerwano kontrakt oraz zabezpieczono się na przyszłość, by już nigdy nie doszło do podobnej sytuacji. To doskonale pokazuje, że nawet taki gigant musi wsłuchiwać się koniecznie w głos swoich podwładnych. Tym bardziej, że kadra zarządzająca niezwykle entuzjastycznie podeszła do całego projektu.

Całość afery dotyczy projektu Maven. Pierwszy kontrakt trwa od 2017 i wygasa w przyszłym roku, a głównym jego założeniem jest stworzenie sztucznej inteligencji poprawiającej celność ataków dronów. Ma to być możliwe dzięki systemowi analizującemu nagrania, namierzającemu obiekty naziemne i sprawdzający ich ruchy. Dzięki rozwiązaniom z obszaru uczenia maszynowego możliwe by było stworzenie niezwykle wyrafinowanego żołnierza. W tym jednak miejscu głos podniosło wielu przeciwników takich ataków oraz pozbawianie dronów jakiegokolwiek operatora ludzkiego. Cóż, w kwestiach etycznych ten projekt nie wypada najlepiej.

Stopniowo ta informacja trafiała do kolejnych mediów, następne osoby okazywały swoje niezadowolenie lub zawód postawą Google, więc nadszedł czas na oficjalną notkę z Mountain View. Oczywiście nie opisuje ona bezpośrednio tej sprawy. Tu postawiono przede wszystkim na podkreślenie tego, że firma nie będzie w ogóle zajmowała się rozwijaniem sztucznej inteligencji do celów militarnych.

Sundar Pichai wyjaśnia

Warto przyjrzeć się bliżej temu, co CEO firmy zawarł w notce na blogu. Przede wszystkim podkreślono tworzenie sztucznej inteligencji przydatnej społeczeństwu i w żaden sposób nie wpływającej na nie negatywnie. Naturalnie wspomniano także o kwestiach bezpieczeństwa oraz tego, że SI nie będzie nikogo obrażać, narażać na obrażenia lub zabijać. To jasno pokazuje, że na razie Google rezygnuje z angażowania się w projekty wojskowe.

Trzeba jednak zauważyć, że rynek nie znosi pustki. Na pewno Departament Bezpieczeństwa USA znajdzie następcę do kontynuowania prac nad projektem Maven i myślę, że o tym dowiemy się za rok, kiedy zapewne znowu znajdzie się grono niezadowolonych pracowników. Mimo wszystko opracowywania sztucznej inteligencji w celach wojskowych nie da się łatwo ocenić w aspekcie moralnym.

Czekają nas liczne debaty nad kwestiami etycznymi takich technologii. Niewątpliwie sztuczna inteligencja zmieni raz na zawsze oblicze wojny, zastępując stopniowo ludzi na polach walki. Z jednej strony pozwoli to oszczędzić wiele żyć, ale z drugiej problematyczne będzie tworzenie technologii do zabijania. Owszem, można głosić pacyfistyczne zdania, jednak w tym przypadku na niewiele się zdadzą. Zobaczymy, w którą stronę podążą firmy. Być może powstaną osobne działy, dedykowane tylko klientom wojskowym?

źródło: Google