Przygotowywana przez UE regulacja AI Act ma dać podłoże pod pierwsze kompleksowe prawo dotyczące sztucznej inteligencji. Zmiany mogą zacząć się już pod koniec tego roku.
Ostatni rok w technologii stał się symbolem gwałtownego rozwoju sztucznej inteligencji, chatbotów i szeroko rozumianych rozwiązań z AI w roli głównej, które wstrząsnęły wieloma branżami – od rozrywki, przez edukacje aż po medycynę. Ten wzrost popularności niesie za sobą niewątpliwy ogrom korzyści i ułatwień, ale nie obeszło się też bez zagrożeń. Sztuczna inteligencja w nieodpowiednich rękach oraz bez stosownych regulacji może być niebezpieczna, o czym wielokrotnie się już przekonaliśmy, chociażby na przykładach tworzonej przy jej pomocy dezinformacji lub spersonalizowanych ataków phishingowych. Unia Europejska chce to zmienić regulacją AI Act, wprowadzając jednolite prawo związane z tym obszarem we wszystkich krajach członkowskich.
Trzy kategorie ryzyka związanego z rozwiązaniami AI
Dyskusji o tym, czy AI powinno się regulować, czy dać jej żyć własnym życiem, odbyło się już w sieci mnóstwo. Unia Europejska regulować lubi jak mało kto i choć początkowo byłem sceptyczny, to z biegiem czasu muszę przyznać, że zastosowanie sztucznej inteligencji powoli zaczyna wymykać się spod kontroli. Nie jestem fanem dystopijnych wizji, ale – żeby daleko nie szukać – problem leży chociażby w niejasnych kwestiach szkolenia modeli językowych na zbiorach prac należących do artystów, pisarzy, czy muzyków, a to zaledwie wierzchołek góry lodowej.
Aby zaprowadzić w tym jakiś porządek, UE wytyczyło 3 kategorie ryzyka – wysokie, ograniczone i minimalne. Za wysokim ryzykiem kryją się aspekty, mające bezpośredni wpływ na życie ludzkie lub podstawowe prawa człowieka. Chodzi tutaj między innymi o systemy biometryczne, transport, ochronę zdrowia, edukację czy rekrutację.
Kategoria ograniczonego ryzyka to w dużym skrócie to, co tyczy się sztucznej inteligencji rozumieniu najbliższej nam technologii użytkowej – chatbotów, asystentów głosowych czy systemów rekomendacji. Ostatnia zaś, czyli kategoria minimalnego ryzyka, odnosi się do zagadnień z zerowym lub minimalnym wpływem na człowieka, niepodlegającym szczególnym wymaganiom, czyli rozwiązań AI stosowanych w grach komputerowych czy interaktywnych zabawkach.
AI Act – pierwsze kompleksowe prawo dotyczące sztucznej inteligencji
Nowa regulacja ma na celu stworzenie takich ram prawnych, aby rozwiązania bazujące na sztucznej inteligencji były godne zaufania i zgodne z prawami obowiązującymi w UE. Kluczowym aspektem ma być to, co AI napędza, czyli dane do wykorzystywane do szkolenia modeli językowych. W przypadku zastosowań wysokiego ryzyka UE będzie wymagało od dostawców mechanizmów bazujących na sztucznej inteligencji starannego podejścia do przetwarzania danych w taki sposób, by były one pozbawione błędów oraz błędnej reprezentacji, a także jasne dla użytkownika.
„AI Act to pierwsze kompleksowe prawo dotyczące sztucznej inteligencji i zdecydowanie krok w dobrym kierunku. Wyraźne wskazanie kategorii zastosowań AI i tych obszarów, w których sztuczna inteligencja nie może być używana, nałoży na firmy techniczne ramy prawne, do których będą musiały się stosować” – Leszek Tasiemski, ekspert ds. cyberbezpieczeństwa, VP w firmie WithSecure
Oprócz powyższych założeń rozporządzenie zakłada także utworzenie europejskiego urzędu ds. sztucznej inteligencji, monitorującego proces wdrażania nowego prawa i egzekwowania przepisów – powołana komisja wskaże także obszary, w których używanie AI będzie niedopuszczalne. Czy to oznacza, że możemy w najbliższym czasie oczekiwać wyeliminowania szkodliwych zjawisk, takich jak kampanie socjotechniczne i dezinformacyjne, lub wykorzystanie AI do zorganizowanych ataków phishingowych? No nie do końca, bo choć projekt może zostać wprowadzony w życie już pod koniec 2023 roku, to na pełne wdrożenie zmian trzeba będzie poczekać jeszcze nawet kilkanaście długich miesięcy.
Warto także zaznaczyć, że AI Act będzie obowiązywać na terenie Unii Europejskiej, więc podmioty operujące poza jej granicami nie będą podlegać rozporządzeniu. Tworzy to pewnego rodzaju zagrożenie rozbieżności w rozwoju firmy działających na ternie wspólnoty, które w przeciwieństwie do konkurencji spoza jej granic będą obciążone kosztami dostosowania się do nowych wytycznych. Unia będzie musiała zadbać więc o regulacje z zachowaniem niezbędnego balansu.
Stock image from Depositphotos
Hej, jesteśmy na Google News - Obserwuj to, co ważne w techu