Sztuczna Inteligencja

Unia ureguluje sztuczną inteligencję – co się zmieni?

Patryk Koncewicz
Unia ureguluje sztuczną inteligencję – co się zmieni?
Reklama

Przygotowywana przez UE regulacja AI Act ma dać podłoże pod pierwsze kompleksowe prawo dotyczące sztucznej inteligencji. Zmiany mogą zacząć się już pod koniec tego roku.

Ostatni rok w technologii stał się symbolem gwałtownego rozwoju sztucznej inteligencji, chatbotów i szeroko rozumianych rozwiązań z AI w roli głównej, które wstrząsnęły wieloma branżami – od rozrywki, przez edukacje aż po medycynę. Ten wzrost popularności niesie za sobą niewątpliwy ogrom korzyści i ułatwień, ale nie obeszło się też bez zagrożeń. Sztuczna inteligencja w nieodpowiednich rękach oraz bez stosownych regulacji może być niebezpieczna, o czym wielokrotnie się już przekonaliśmy, chociażby na przykładach tworzonej przy jej pomocy dezinformacji lub spersonalizowanych ataków phishingowych. Unia Europejska chce to zmienić regulacją AI Act, wprowadzając jednolite prawo związane z tym obszarem we wszystkich krajach członkowskich.

Reklama

Trzy kategorie ryzyka związanego z rozwiązaniami AI

Dyskusji o tym, czy AI powinno się regulować, czy dać jej żyć własnym życiem, odbyło się już w sieci mnóstwo. Unia Europejska regulować lubi jak mało kto i choć początkowo byłem sceptyczny, to z biegiem czasu muszę przyznać, że zastosowanie sztucznej inteligencji powoli zaczyna wymykać się spod kontroli. Nie jestem fanem dystopijnych wizji, ale – żeby daleko nie szukać – problem leży chociażby w niejasnych kwestiach szkolenia modeli językowych na zbiorach prac należących do artystów, pisarzy, czy muzyków, a to zaledwie wierzchołek góry lodowej.

Źródło: Depositphotos

Aby zaprowadzić w tym jakiś porządek, UE wytyczyło 3 kategorie ryzyka – wysokie, ograniczone i minimalne. Za wysokim ryzykiem kryją się aspekty, mające bezpośredni wpływ na życie ludzkie lub podstawowe prawa człowieka. Chodzi tutaj między innymi o systemy biometryczne, transport, ochronę zdrowia, edukację czy rekrutację.

Kategoria ograniczonego ryzyka to w dużym skrócie to, co tyczy się sztucznej inteligencji rozumieniu najbliższej nam technologii użytkowej – chatbotów, asystentów głosowych czy systemów rekomendacji. Ostatnia zaś, czyli kategoria minimalnego ryzyka, odnosi się do zagadnień z zerowym lub minimalnym wpływem na człowieka, niepodlegającym szczególnym wymaganiom, czyli rozwiązań AI stosowanych w grach komputerowych czy interaktywnych zabawkach.

AI Act – pierwsze kompleksowe prawo dotyczące sztucznej inteligencji

Nowa regulacja ma na celu stworzenie takich ram prawnych, aby rozwiązania bazujące na sztucznej inteligencji były godne zaufania i zgodne z prawami obowiązującymi w UE. Kluczowym aspektem ma być to, co AI napędza, czyli dane do wykorzystywane do szkolenia modeli językowych. W przypadku zastosowań wysokiego ryzyka UE będzie wymagało od dostawców mechanizmów bazujących na sztucznej inteligencji starannego podejścia do przetwarzania danych w taki sposób, by były one pozbawione błędów oraz błędnej reprezentacji, a także jasne dla użytkownika.

„AI Act to pierwsze kompleksowe prawo dotyczące sztucznej inteligencji i zdecydowanie krok w dobrym kierunku. Wyraźne wskazanie kategorii zastosowań AI i tych obszarów, w których sztuczna inteligencja nie może być używana, nałoży na firmy techniczne ramy prawne, do których będą musiały się stosować” – Leszek Tasiemski, ekspert ds. cyberbezpieczeństwa, VP w firmie WithSecure

Oprócz powyższych założeń rozporządzenie zakłada także utworzenie europejskiego urzędu ds. sztucznej inteligencji, monitorującego proces wdrażania nowego prawa i egzekwowania przepisów – powołana komisja wskaże także obszary, w których używanie AI będzie niedopuszczalne. Czy to oznacza, że możemy w najbliższym czasie oczekiwać wyeliminowania szkodliwych zjawisk, takich jak kampanie socjotechniczne i dezinformacyjne, lub wykorzystanie AI do zorganizowanych ataków phishingowych? No nie do końca, bo choć projekt może zostać wprowadzony w życie już pod koniec 2023 roku, to na pełne wdrożenie zmian trzeba będzie poczekać jeszcze nawet kilkanaście długich miesięcy.

Źródło: Depositphotos

Warto także zaznaczyć, że AI Act będzie obowiązywać na terenie Unii Europejskiej, więc podmioty operujące poza jej granicami nie będą podlegać rozporządzeniu. Tworzy to pewnego rodzaju zagrożenie rozbieżności w rozwoju firmy działających na ternie wspólnoty, które w przeciwieństwie do konkurencji spoza jej granic będą obciążone kosztami dostosowania się do nowych wytycznych. Unia będzie musiała zadbać więc o regulacje z zachowaniem niezbędnego balansu.

Reklama

Stock image from Depositphotos 

Reklama

Hej, jesteśmy na Google News - Obserwuj to, co ważne w techu

Reklama