Felietony

USA boi się sztucznej inteligencji. Słusznie. Ja też się boję

Jakub Szczęsny
USA boi się sztucznej inteligencji. Słusznie. Ja też się boję
Reklama

Nie chciałbym zostać uznany za "foliarza", bo takim człowiekiem nie jestem. Możecie się teraz nieco roześmiać, ale wydaje mi się że po 8 latach na Antywebie "dojrzałem technologicznie". Mniej już we mnie takiego dzikiego entuzjazmu, a więcej już zaskoczenia tym, w jakim kierunku poszliśmy. Cholera, czym więcej siwych włosów na skroniach, tym więcej narzekania...

Biały Dom jednak widzi to podobnie jak ja. Zachłysnęliśmy się możliwościami AI i już teraz widać, że kierunek w jakim poszliśmy jest... niekoniecznie dobry. Właśnie po to powstała "ustawa o AI", która jest zbiorem zasad dotyczących sposobów, w jakie algorytmy AI powinny być wdrażane. Jej zapisy są zbieżne z tym, co Biały Dom zebrał od opinii publicznej i firm takich jak Microsoft i Palantir. Ta pierwsza firma może być dla Was pewnym zaskoczeniem: po co gigant technologiczny miałby tworzyć ustawę, która może ograniczyć jego rozwój? Może po to, aby nie dopuścić do "nadrozwoju" konkurentów? Tego nie wiemy. A może dlatego, że Microsoft jest dobrym ziomkiem? Takie tam marzenia.

Reklama

W ustawie znajdują się zapisy dotyczące bezpieczeństwa, przejrzystości i prywatności: czyli wszystkiego tego, co nas w AI interesuje najbardziej. Po pierwsze, niech taka AI nie zacznie odwalać czegoś zdrowo po... postrzelonego. Po drugie, niech będzie wiadomo jak to działa i po co w ogóle ma działać w ten sposób. Po trzecie, niech będą określone granice, którymi będzie się kierować AI w kontekście naszej prywatności. Jeżeli ma analizować moje, czy Twoje dane - bądźmy dobrze w tej kwestii poinformowani: po co to robi, z jakimi dokładnie danymi. No i miejmy dostęp do tego, co wie o nas taka sztuczna inteligencja. Według tej ustawy, systemy AI będące w "fazie produkcyjnej" powinny być pod nadzorem. Co więcej, użytkownik ma mieć możliwość zrezygnowania z interakcji ze sztuczną inteligencją - jeżeli uzna to za stosowne i zasadne. Mądrze.

Czy AI może dyskryminować?

Oczywiście! Były już przykłady takich narzędzi, które miały eliminować konkretnych kandydatów do pracy. Ot, żeby nieco wyręczyć w tym rekruterów. I co? Taka AI eliminowała częściej kobiety, bo tak była szkolona. Fotograficzne systemy AI do wykrywania twarzy okazały się nie rozpoznawać osób o ciemniejszej skórze. Dlaczego? Bo dane wejściowe, na których się szkoliły te AI, zawierały twarze głównie białych ludzi. Niestety jednak - jak się okazuje - AI Bill of Rights jest ustawą, która nie będzie obligować do konkretnych działań korporacji. Czyli co? Microsoft nie zrobi przykrej niespodzianki Google? Na to wygląda. Prywatne inicjatywy mogą spać spokojnie i dalej tworzyć te systemy bez nadzoru.

I tak oto, Departament Zdrowia i Usług Społecznych oraz Departament Edukacji w USA, mają stworzyć wytyczne, które będą dotyczyć stosowania szkodliwych lub niebezpiecznych technologii AI. W UE już są takie rozporządzenia, które idą nawet dalej. Po prostu zakazuje się tworzenia AI, które mogą mieć szkodliwy lub niebezpieczny potencjał.

Zobligujmy każdego - może zatrzymamy ten dziki peleton

Jak na razie, działania dotyczące AI to swoisty dziki zachód. Nikt nie wie, jak one działają. Mało kto się tym chwali. Ludzie - całkiem słusznie - zadają pytania i zastanawiają się, czy ich wolność, czy ich prywatność nie są zagrożone. Tu już nie chodzi o to, że AI będzie kogoś zastępować. Pytanie, czy nie będzie ona niebezpieczna dla naszych danych, dla tego co dla nas najcenniejsze. Czy przez nią nie będziemy dyskryminowani w pracy, w trakcie jej poszukiwania, w medycynie, w urzędach. Możecie uznać mnie za zamordystę, ale ja bym zobligował do przestrzegania konkretnych wytycznych każdego. Bez wyjątków.

Hej, jesteśmy na Google News - Obserwuj to, co ważne w techu

Reklama