4

Sztuczna inteligencja uczyni ludzkość „lepszą”. Ale obawy i tak pozostają

Najnowsze badanie Pew Research Center wskazuje jasno: rozwój badań nad sztuczną inteligencją oraz jej sukcesywne wdrażanie w różnych gałęziach ludzkiej działalności będzie przyczynkiem do ulepszenia naszego gatunku. Problemy rozwiążą się szybciej, uzyskamy lepsze analizy danych, podejmiemy dzięki niej lepsze decyzje. O ile eksperci cieszą się na myśl o jej rozwoju, "zwykli" ludzie częściej mają wątpliwości.

Sposobów na wykorzystanie sztucznej inteligencji jest naprawdę mnóstwo. Obecnie, upatruje się jej wiodącą rolę w medycynie – diagnozowanie nawet bardzo rzadkich i trudnych chorób ma być dzięki niej łatwiejsze (to już się dzieje: Ada trafnie rozpoznaje nawet „dziwne” objawy i dopasowuje do nich chorobę, która zdarza się ok. 1/100 000 urodzeń). Mówi się również o edukacji, gdzie AI miałaby konstruować lepsze modele nauczania. W firmach odpowiadałaby za podejmowanie właściwych z punktu widzenia rynku decyzji biznesowych, a w Chinach sztuczna inteligencja ma szansę zostać… pełnoprawnym politykiem. Do roku 2030 wiele może się zmienić i właśnie tego dotyczy badanie Pew.

W badaniu ośrodka wzięło udział 979 ekspertów głównie z branży technologicznej: to oni mają największe rozeznanie w dziedzinie wykorzystania oraz badań nad sztuczną inteligencją. I według nich, w większości możemy cieszyć się z rozwoju AI. Gdy zapytano ich: „By 2030, do you think it is most likely that advancing AI and related technology systems will enhance human capacities and empower them?” – czy uważasz, że do 2030 roku rozwój sztucznej inteligencji oraz powiązanych z nią rozwiązań rozwinie ludzkie możliwości i uczyni je potężniejszymi? 2/3 respondentów generalnie zgodziło się z tym stwierdzeniem. 1/3 uważała inaczej – jednak warto wskazać, że właściwie większość odpowiadających zgłosiła co najmniej jedną wątpliwość odnośnie jej rozwoju.

W trakcie rozważań respondentów pojawiały się kwestie autonomicznej broni, kurczenia się rynku pracy dla ludzi, a nawet kwestii samodzielnego podejmowania decyzji. Jeżeli AI będzie od nas lepsza w większości zastosowań, to czy będziemy w ogóle potrzebni w procesie decydowania o czymkolwiek? Może stracimy wolę sprawczą i będziemy dostosowywać się jedynie do osądów maszyny?

Możliwości albo prywatność

Sztuczna inteligencja to jeden z takich wynalazków, które mogą wzbudzać konkretne obawy, jeżeli chodzi o prywatność. Twórcy badania przywołują jedną z wypowiedzi tyczących się Microsoftu, który zasłynął ostatnio apelem do rządów, które chciałyby wykorzystać AI do lepszego rozpoznawania twarzy i w konsekwencji do inwigilacji obywateli. Według tej firmy to ogromny problem i respondent zdaje się to zauważać: dalej wykazując ogromny związek sztucznej inteligencji z możliwością wchodzenia z butami w prywatność zwykłych ludzi.

Dysproporcje w osądach dotyczących sztucznej inteligencji jednak nie są niczym dziwnym: obawiamy się tego, co jest nieznane i również tego, co może być powodem niezdatnych dla nas do przewidzenia skutków. W tym momencie cieszymy się ze sztucznej inteligencji, gdyż ta wydaje się być na razie stosunkowo niewinna. Oczywiście, pewne autorytety wypowiadają się na jej temat skrajnie niepochlebnie (albo wypowiadali się – patrz S. Hawking): Elon Musk uważa na przykład, że ta jest gorsza od broni jądrowej i może być przyczynkiem tragicznego zwrotu w naszej historii.

Inni natomiast uważają, że skoro badania genetyczne są obarczone pewnymi obostrzeniami, rozwój AI także powinien zostać usystematyzowany. Brak istotnego parcia na to wynika poniekąd z tego, że sztuczna inteligencja w dalszym ciągu jest dla nas czymś „mało ludzkim”. Nie utożsamiamy jej z prawdziwym człowiekiem albo ze sposobem myślenia typowego przedstawiciela naszego gatunku. I jest to jak najbardziej poprawne – AI raczej nigdy nie będzie myśleć w ramach metody korespondującej z naszym poziomem percepcji. Ale właśnie to powinno stwarzać znacznie więcej obaw.