Akt w sprawie sztucznej inteligencji to przepisy dzięki którym w krajach europejskich działanie firm AI ma być przejrzyste i podlegające kontroli. Dzięki temu użytkownicy końcowi mają mieć pewność, że rozwiązania te są bezpieczne, zgodne z prawem oraz respektują prawa podstawowe i wartości UE.
O akcie o AI pisaliśmy wielokrotnie – także wtedy, gdy nowe przepisy zostały zaakceptowane przez Radę i Parlament Europejski, które zgodnie stały na stanowisku, że technologia ta wymaga precyzyjnych i szczegółowych regulacji, które mają zagwarantować bezpieczeństwo. Choć do wdrożenia prawa kraje członkowskie mają jeszcze sporo czasu, ogólne założenia przepisów już teraz mogą spędzić sen z powiem firmom rozwijającym swoje własne narzędzia oparte na sztucznej inteligencji.
AI Act stosuje podejście oparte na ryzyku, dzieląc systemy AI na cztery kategorie: minimalne ryzyko, ograniczone ryzyko, wysokie ryzyko oraz niedopuszczalne ryzyko. Minimalne ryzyko dotyczy aplikacji AI o niewielkim wpływie na prawa i bezpieczeństwo użytkowników, jak filtry antyspamowe. Ograniczone ryzyko wymaga transparentności, aby użytkownicy wiedzieli, że mają do czynienia z AI, np. chatboty.
AI w Europie pod okiem regulatorów. Nie będzie łatwo
Wysokie ryzyko dotyczy systemów AI, które mogą znacząco wpływać na prawa lub bezpieczeństwo osób, jak systemy rozpoznawania twarzy, decyzje kredytowe czy rekrutacyjne. Wymagane są rygorystyczne środki zarządzania ryzykiem, dokumentacja oraz nadzór ludzki. Niedopuszczalne ryzyko obejmuje systemy AI, które zagrażają podstawowym prawom, np. systemy manipulacji, wprowadzenie systemu ocen społecznych czy przewidywanie przestępczości.
Firmy, które rozwijają lub wdrażają systemy AI w UE, muszą spełniać szereg wymagań. Przede wszystkim muszą zarejestrować się w centralnej bazie danych UE, utrzymywać systemy zarządzania jakością i prowadzić odpowiednią dokumentację. Wymagane jest także przeprowadzanie ocen zgodności i zarządzanie ryzykiem. Transparentność jest kluczowa, co obejmuje oznaczanie systemów AI oraz ujawnianie informacji o używanych danych i metodach treningu modeli.
AI Act przewiduje surowe kary za nieprzestrzeganie przepisów. Firmy mogą zostać ukarane grzywną do 7% globalnego rocznego obrotu lub 35 milionów euro za używanie niedopuszczalnych systemów AI. Za nieprzestrzeganie obowiązków dotyczących systemów wysokiego ryzyka grożą kary do 3% globalnego obrotu lub 15 milionów euro. Dostarczanie nieprawdziwych informacji organom nadzorczym może skutkować karami do 1% globalnego obrotu lub 7,5 miliona euro.
Polska gotowa na AI Act? W przygotowaniu są już nowe przepisy
Warto też przypomnieć, że już teraz Polska przygotowuje się do wprowadzenia zmian wynikających z aktu o AI. Prowadzone prekonsultacje i rozmowy z zainteresowanymi stronami i ekspertami rzucają nieco więcej światła na to, jak rozwijająca się w zaskakująco szybkim tempie technologia będzie kontrolowana w naszym kraju. W zeszył miesiącu dyskutowano m.in. na temat organu nadzorującego firmy AI w Polsce. Niektóre propozycje związane z jego powołaniem mówią że:
- być pojedynczym punktem kontaktowym dla ogółu społeczeństwa oraz innych partnerów na szczeblu państw członkowskich i na szczeblu unijnym,
- rozpatrywać wnioski dot. zezwolenia na wprowadzenie do obrotu lub oddanie do użytku systemów AI wysokiego ryzyka oraz skargi osób poddanych działaniom systemów AI,
- przyjmować zgłoszenia dot. poważnych incydentów,
- współpracować z Komisją, forum doradczym oraz Radą ds. AI.
Hej, jesteśmy na Google News - Obserwuj to, co ważne w techu