Nie chciałbym zostać uznany za "foliarza", bo takim człowiekiem nie jestem. Możecie się teraz nieco roześmiać, ale wydaje mi się że po 8 latach na Antywebie "dojrzałem technologicznie". Mniej już we mnie takiego dzikiego entuzjazmu, a więcej już zaskoczenia tym, w jakim kierunku poszliśmy. Cholera, czym więcej siwych włosów na skroniach, tym więcej narzekania...
Biały Dom jednak widzi to podobnie jak ja. Zachłysnęliśmy się możliwościami AI i już teraz widać, że kierunek w jakim poszliśmy jest... niekoniecznie dobry. Właśnie po to powstała "ustawa o AI", która jest zbiorem zasad dotyczących sposobów, w jakie algorytmy AI powinny być wdrażane. Jej zapisy są zbieżne z tym, co Biały Dom zebrał od opinii publicznej i firm takich jak Microsoft i Palantir. Ta pierwsza firma może być dla Was pewnym zaskoczeniem: po co gigant technologiczny miałby tworzyć ustawę, która może ograniczyć jego rozwój? Może po to, aby nie dopuścić do "nadrozwoju" konkurentów? Tego nie wiemy. A może dlatego, że Microsoft jest dobrym ziomkiem? Takie tam marzenia.
W ustawie znajdują się zapisy dotyczące bezpieczeństwa, przejrzystości i prywatności: czyli wszystkiego tego, co nas w AI interesuje najbardziej. Po pierwsze, niech taka AI nie zacznie odwalać czegoś zdrowo po... postrzelonego. Po drugie, niech będzie wiadomo jak to działa i po co w ogóle ma działać w ten sposób. Po trzecie, niech będą określone granice, którymi będzie się kierować AI w kontekście naszej prywatności. Jeżeli ma analizować moje, czy Twoje dane - bądźmy dobrze w tej kwestii poinformowani: po co to robi, z jakimi dokładnie danymi. No i miejmy dostęp do tego, co wie o nas taka sztuczna inteligencja. Według tej ustawy, systemy AI będące w "fazie produkcyjnej" powinny być pod nadzorem. Co więcej, użytkownik ma mieć możliwość zrezygnowania z interakcji ze sztuczną inteligencją - jeżeli uzna to za stosowne i zasadne. Mądrze.
Czy AI może dyskryminować?
Oczywiście! Były już przykłady takich narzędzi, które miały eliminować konkretnych kandydatów do pracy. Ot, żeby nieco wyręczyć w tym rekruterów. I co? Taka AI eliminowała częściej kobiety, bo tak była szkolona. Fotograficzne systemy AI do wykrywania twarzy okazały się nie rozpoznawać osób o ciemniejszej skórze. Dlaczego? Bo dane wejściowe, na których się szkoliły te AI, zawierały twarze głównie białych ludzi. Niestety jednak - jak się okazuje - AI Bill of Rights jest ustawą, która nie będzie obligować do konkretnych działań korporacji. Czyli co? Microsoft nie zrobi przykrej niespodzianki Google? Na to wygląda. Prywatne inicjatywy mogą spać spokojnie i dalej tworzyć te systemy bez nadzoru.
I tak oto, Departament Zdrowia i Usług Społecznych oraz Departament Edukacji w USA, mają stworzyć wytyczne, które będą dotyczyć stosowania szkodliwych lub niebezpiecznych technologii AI. W UE już są takie rozporządzenia, które idą nawet dalej. Po prostu zakazuje się tworzenia AI, które mogą mieć szkodliwy lub niebezpieczny potencjał.
Zobligujmy każdego - może zatrzymamy ten dziki peleton
Jak na razie, działania dotyczące AI to swoisty dziki zachód. Nikt nie wie, jak one działają. Mało kto się tym chwali. Ludzie - całkiem słusznie - zadają pytania i zastanawiają się, czy ich wolność, czy ich prywatność nie są zagrożone. Tu już nie chodzi o to, że AI będzie kogoś zastępować. Pytanie, czy nie będzie ona niebezpieczna dla naszych danych, dla tego co dla nas najcenniejsze. Czy przez nią nie będziemy dyskryminowani w pracy, w trakcie jej poszukiwania, w medycynie, w urzędach. Możecie uznać mnie za zamordystę, ale ja bym zobligował do przestrzegania konkretnych wytycznych każdego. Bez wyjątków.
Hej, jesteśmy na Google News - Obserwuj to, co ważne w techu