Sztuczna Inteligencja

Skąd AI czerpie informacje i gdzie się uczy? Wkrótce się dowiemy

Piotr Kurek
Skąd AI czerpie informacje i gdzie się uczy? Wkrótce się dowiemy
2

Akt w sprawie sztucznej inteligencji to przepisy dzięki którym w krajach europejskich działanie firm AI ma być przejrzyste i podlegające kontroli. Dzięki temu użytkownicy końcowi mają mieć pewność, że rozwiązania te są bezpieczne, zgodne z prawem oraz respektują prawa podstawowe i wartości UE.

O akcie o AI pisaliśmy wielokrotnie – także wtedy, gdy nowe przepisy zostały zaakceptowane przez Radę i Parlament Europejski, które zgodnie stały na stanowisku, że technologia ta wymaga precyzyjnych i szczegółowych regulacji, które mają zagwarantować bezpieczeństwo. Choć do wdrożenia prawa kraje członkowskie mają jeszcze sporo czasu, ogólne założenia przepisów już teraz mogą spędzić sen z powiem firmom rozwijającym swoje własne narzędzia oparte na sztucznej inteligencji.

Źródło: Depositphotos

AI Act stosuje podejście oparte na ryzyku, dzieląc systemy AI na cztery kategorie: minimalne ryzyko, ograniczone ryzyko, wysokie ryzyko oraz niedopuszczalne ryzyko. Minimalne ryzyko dotyczy aplikacji AI o niewielkim wpływie na prawa i bezpieczeństwo użytkowników, jak filtry antyspamowe. Ograniczone ryzyko wymaga transparentności, aby użytkownicy wiedzieli, że mają do czynienia z AI, np. chatboty.

AI w Europie pod okiem regulatorów. Nie będzie łatwo

Wysokie ryzyko dotyczy systemów AI, które mogą znacząco wpływać na prawa lub bezpieczeństwo osób, jak systemy rozpoznawania twarzy, decyzje kredytowe czy rekrutacyjne. Wymagane są rygorystyczne środki zarządzania ryzykiem, dokumentacja oraz nadzór ludzki. Niedopuszczalne ryzyko obejmuje systemy AI, które zagrażają podstawowym prawom, np. systemy manipulacji, wprowadzenie systemu ocen społecznych czy przewidywanie przestępczości​.

Firmy, które rozwijają lub wdrażają systemy AI w UE, muszą spełniać szereg wymagań. Przede wszystkim muszą zarejestrować się w centralnej bazie danych UE, utrzymywać systemy zarządzania jakością i prowadzić odpowiednią dokumentację. Wymagane jest także przeprowadzanie ocen zgodności i zarządzanie ryzykiem. Transparentność jest kluczowa, co obejmuje oznaczanie systemów AI oraz ujawnianie informacji o używanych danych i metodach treningu modeli​.

Źródło: Depositphotos

AI Act przewiduje surowe kary za nieprzestrzeganie przepisów. Firmy mogą zostać ukarane grzywną do 7% globalnego rocznego obrotu lub 35 milionów euro za używanie niedopuszczalnych systemów AI. Za nieprzestrzeganie obowiązków dotyczących systemów wysokiego ryzyka grożą kary do 3% globalnego obrotu lub 15 milionów euro. Dostarczanie nieprawdziwych informacji organom nadzorczym może skutkować karami do 1% globalnego obrotu lub 7,5 miliona euro​.

Polska gotowa na AI Act? W przygotowaniu są już nowe przepisy

Warto też przypomnieć, że już teraz Polska przygotowuje się do wprowadzenia zmian wynikających z aktu o AI. Prowadzone prekonsultacje i rozmowy z zainteresowanymi stronami i ekspertami rzucają nieco więcej światła na to, jak rozwijająca się w zaskakująco szybkim tempie technologia będzie kontrolowana w naszym kraju. W zeszył miesiącu dyskutowano m.in. na temat organu nadzorującego firmy AI w Polsce. Niektóre propozycje związane z jego powołaniem mówią że:

  • być pojedynczym punktem kontaktowym dla ogółu społeczeństwa oraz innych partnerów na szczeblu państw członkowskich i na szczeblu unijnym,
  • rozpatrywać wnioski dot. zezwolenia na wprowadzenie do obrotu lub oddanie do użytku systemów AI wysokiego ryzyka oraz skargi osób poddanych działaniom systemów AI,
  • przyjmować zgłoszenia dot. poważnych incydentów,
  • współpracować z Komisją, forum doradczym oraz Radą ds. AI.

Uczestnicy prekonsultacji są podzieleni w kwestii utworzenia osobnego podmiotu, który miałby pełnić rolę organu notyfikującego. Taki podmiot miałby współpracować z partnerami z UE, opracowywać i wdrażać procedury do oceny, wyznaczania i notyfikowania jednostek oceniających zgodność systemów AI oraz monitorować ich działalność. W niektórych przypadkach powinien również dostarczać Komisji i państwom członkowskim dowody potwierdzające kompetencje tych jednostek. Zgodnie z założeniami Aktu, organ notyfikujący ma zapewniać wysoki poziom kompetencji, poufność, bezstronność oraz brak konfliktu interesów w kontaktach z jednostkami oceniającymi zgodność. Większość uczestników prekonsultacji uważa, że ta sama instytucja powinna pełnić funkcje organu nadzoru rynku i organu notyfikującego.

Stock image from Depositphotos

Hej, jesteśmy na Google News - Obserwuj to, co ważne w techu