Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2024/1689 z 13.6.2024 r. w sprawie ustanowienia zharmonizowanych przepisów dotyczących sztucznej inteligencji oraz zmiany rozporządzeń (WE) nr 300/2008, (UE) nr 167/2013, (UE) nr 168/2013, (UE) 2018/858, (UE) 2018/1139 i (UE) 2019/2144 oraz dyrektyw 2014/90/UE, (UE) 2016/797 i (UE) 2020/1828 (Dz.Urz. UE L z 2024 r. s. 1689; dalej: AIAct) definiuje systemy AI, klasyfikuje ryzyka, określa obowiązki dostawców i użytkowników, ale nie odpowiada na pytanie istotne z perspektywy krajowej praktyki: kto konkretnie ma kontrolować przestrzeganie tych przepisów, kto poprowadzi postępowania i kto ma nakładać kary?
Skierowany do prac w Sejmie rządowy projekt ustawy o systemach sztucznej inteligencji (nr druku: UC71) nie ustanawia nowych obowiązków regulacyjnych wykraczających poza AIAct. Ustawa „przekłada” je natomiast na język polskiego systemu prawnego, wskazując właściwe organy, procedury i mechanizmy egzekwowania oraz działania wspierające rozwój systemów sztucznej inteligencji (art. 1 projektu). W zakresie użytych pojęć ustawa odsyła bezpośrednio do przepisów AIAct (art. 4 projektu).
Nie dla wszystkich – zakres regulacji
Projekt od początku jasno wyznacza granice prawnej ingerencji. Nie obejmuje on obszarów takich jak obronność czy bezpieczeństwo państwa, a także działalności służb specjalnych. Poza jego zakresem pozostają również, z wyjątkami, badania naukowe. Zakres wyłączeń określa art. 2 projektu. Z kolei art. 3 projektu precyzuje, do jakich podmiotów przepisy znajdują zastosowanie. Jednak przepis ten przewiduje również określone wyłączenia, np. omawiana regulacja nie obejmuje osób fizycznych korzystających z AI prywatnie (art. 3 ust. 1 projektu). Regulacja jest więc adresowana przede wszystkim do podmiotów profesjonalnych. To one będą musiały zmierzyć się z nowym reżimem prawnym.
Nowe przepisy regulują również system oceny zgodności systemów AI, w tym zasady akredytacji i notyfikacji jednostek oceniających zgodność, przyznając ministrowi właściwemu do spraw informatyzacji rolę organu notyfikującego.
Projekt wyraźnie wskazuje też, że obejmuje nie tylko systemy AI, lecz także modele sztucznej inteligencji ogólnego przeznaczenia (GPAI), które mają duże znaczenie w praktyce rynkowej.
Jeden organ, wiele funkcji
Centralnym elementem projektu jest powołanie Komisji Rozwoju i Bezpieczeństwa Sztucznej Inteligencji (dalej: Komisja; art. 5 projektu). Komisja stanie się głównym organem nadzoru rynku AI w Polsce w zakresie systemów sztucznej inteligencji w rozumieniu art. 70 ust. 1 rozporządzenia 2024/1689. Będzie działać jako pojedynczy punkt kontaktowy (art. 70 ust. 2 rozporządzenia 2024/1689).
Projekt szczegółowo reguluje status ustrojowy Komisji, w tym tryb powoływania jej przewodniczącego (powoływanego i odwoływanego przez Sejm RP za zgodą Senatu RP na 5 lat), kadencyjność oraz zasady niezależności, a także ograniczenia mające zapobiegać konfliktowi interesów.
Zakres kompetencji Komisji – określony w art. 6 projektu – jest szeroki: od kontroli przestrzegania przepisów i nadzoru, przez udział w opracowywaniu i opiniowaniu projektów dokumentów rządowych, wydawanie postanowień i decyzji w sprawach o naruszenie przepisów rozporządzenia, dbanie o bezpieczeństwo, aż po działania edukacyjne i wspieranie innowacji. Służą temu m.in. piaskownice regulacyjne, które przewidziano w art. 91 i następnych projektu. To środowiska testowe, w których możliwe będzie rozwijanie systemów AI przy częściowym odstępstwie od wymogów regulacyjnych. Rozwiązanie to ma szczególne znaczenie dla startupów i mikro-, małych i średnich przedsiębiorców (ich uczestnictwo w piaskownicy jest nieodpłatne).
Komisja nie będzie działać przy tym w izolacji, przewidziano jej ścisłą współpracę z innymi organami krajowymi i unijnymi (art. 20 projektu). Zyskała również szerokie uprawnienia w zakresie przetwarzania danych (art. 39–41 projektu), co oznacza konieczność równoległego stosowania przez nią dwóch reżimów prawnych – technologicznego i ochrony danych. Ponadto przy Komisji ma działać także Społeczna Rada do spraw Sztucznej Inteligencji jako organ opiniodawczo-doradczy, reprezentujący różne środowiska interesariuszy.
Opinie indywidualne i wyjaśnienia
Projekt wprowadza rozwiązanie, które może odegrać istotną rolę w kształtującej się praktyce cyfrowej – opinie indywidualne oraz wyjaśnienia w sprawach objętych zakresem działania Komisji (art. 8–17 projektu). Polski organ ma w nich uwzględniać zalecenia i opinie merytoryczne Europejskiej Rady do spraw Sztucznej Inteligencji, o których mowa w art. 66 lit. e AIAct.
Podmiot planujący wdrożenie systemu AI może wystąpić do Komisji o ocenę zgodności rozwiązania z przepisami. Opinia indywidualna ma charakter wiążący, a jej brak w terminie oznacza akceptację stanowiska wnioskodawcy. Oprócz opinii indywidualnych Komisja będzie wydawać z urzędu lub na wniosek wyjaśnienia mające istotne znaczenie dla stosowania przepisów rozporządzenia 2024/1689 i ustawy w sprawach objętych zakresem działania Komisji. Ma przy tym uwzględniać w szczególności orzecznictwo sądów, wytyczne, interpretacje, rekomendacje i wyjaśnienia Komisji Europejskiej oraz Europejskiej Rady do spraw Sztucznej Inteligencji.
Ważnym źródłem wiedzy dotyczącej prawa nowych technologii będą publikacje Komisji w Biuletynie Informacji Publicznej. Obejmą one nie tylko opinie indywidualne i wyjaśnienia, lecz także komunikaty o zmianach prawa, orzecznictwie oraz wytycznych i rekomendacjach organów unijnych wpływających na ich aktualność.
Art. 67 projektu realizuje postulat transparentności, wprowadzając wymóg prowadzenia szczegółowego wykazu systemów sztucznej inteligencji, wobec których podjęto decyzje o nałożeniu kary za naruszenie przepisów rozporządzenia lub ustawy.
Ponadto zgodnie z art. 18 projektu, Komisja będzie mogła przedstawić sądowi istotny dla sprawy pogląd w sprawach z zakresu sztucznej inteligencji, jeżeli przemawia za tym interes publiczny. Projekt przewiduje również możliwość składania skarg na naruszenia przepisów dotyczących sztucznej inteligencji, których rozpatrzenie może prowadzić do wszczęcia postępowania przez Komisję (art. 60 projektu).
Kontrola, spór, układ, sankcje
Uprawnienia kontrolne Komisji zostały ukształtowane szeroko (art. 48 i następne projektu). Uregulowano przebieg postępowania w sprawach naruszeń, w tym zasady jego wszczęcia oraz maksymalny czas jego trwania, który co do zasady nie powinien przekraczać 6 miesięcy.
Regułą jest przeprowadzanie kontroli w sposób zdalny, nie wcześniej niż po 7 dniach od dnia doręczenia kontrolowanemu zawiadomienia o wszczęciu kontroli (art. 49 ust. 2 i 3 projektu). Jednak w przypadku szczególnego zagrożenia wystąpienia szkody dla życia, zdrowia, bezpieczeństwa lub praw podstawowych osób fizycznych, kontrola może być przeprowadzona w sposób stacjonarny i przy spełnieniu określonych warunków bez zachowania siedmiodniowego terminu.
W przypadku naruszeń Komisja dysponuje szerokim katalogiem środków. Może rozpocząć od ostrzeżenia (art. 62 projektu), ale także wydać decyzję nakazującą usunięcie skutków naruszenia obowiązków wynikających z rozporządzenia 2024/1689 lub ustawy w terminie do 14 dni od dnia jej doręczenia (art. 63 projektu), a w sytuacjach poważnych – wycofać system z rynku lub jego stosowania (art. 64 projektu).
System kar pieniężnych opiera się na przepisach AIAct (art. 100 projektu), ale projekt przewiduje również mechanizmy ich łagodzenia, m.in. w przypadku współpracy z organem (art. 103 projektu). Na szczególną uwagę zasługuje instytucja układu (art. 71 i następne projektu). Podmiot, który ujawni naruszenie i podejmie działania naprawcze, może uzyskać znaczące obniżenie kary, a w określonych przypadkach nawet uniknąć jej nałożenia.
Ewolucja przepisów
Choć projekt ustawy tworzy kompleksowy system nadzoru nad AI, nie jest to konstrukcja ostateczna. Na poziomie unijnym trwają prace nad tzw. Cyfrowym Omnibusem, który ma uprościć część regulacji cyfrowych – w tym AIAct.
Rozważane zmiany obejmują m.in. ograniczenie obciążeń dla najmniejszych podmiotów oraz doprecyzowanie obowiązków. Jeżeli zostaną przyjęte, wpłyną również na stosowanie krajowej ustawy. Wskazuje to, że regulacja sztucznej inteligencji pozostaje procesem dynamicznym – a przedsiębiorcy muszą być przygotowani nie tylko na nowe obowiązki, lecz także na ich ewolucję.
Artykuł pochodzi z Systemu Legalis. Bądź na bieżąco, polub nas na Facebooku →