• Przepisy przewidują podział systemów AI na cztery kategorie ryzyka: niedopuszczalnego, wysokiego, ograniczonego oraz minimalnego.
  • Systemy AI niedopuszczalnego ryzyka, które stwarza zagrożenie dla ludzi, są zakazane na gruncie nowych przepisów.
  • Przepisy wejdą w życie 20 dni po publikacji w Dzienniku Urzędowym UE.

Podział ryzyka

Nowe przepisy określają obowiązki dostawców i użytkowników w zależności od poziomu ryzyka, które reprezentuje sztuczna inteligencja. Mimo że wiele systemów sztucznej inteligencji stwarza minimalne ryzyko, należy je ocenić.

Rozporządzenie dzieli systemy AI na cztery kategorie:

  • systemy niedopuszczalnego ryzyka;
  • systemy wysokiego ryzyka;
  • systemy ograniczonego ryzyka;
  • systemy minimalnego ryzyka.

Systemy AI niedopuszczalnego ryzyka

Systemy AI, które stwarzają niedopuszczalne ryzyko uważane za zagrożenie dla ludzi, są zakazane na gruncie nowych przepisów.

Chodzi m.in. o:

  • poznawczo-behawioralną manipulację ludźmi lub określonymi wrażliwymi grupami;
  • identyfikację biometryczną i kategoryzację osób fizycznych;
  • scoring (klasyfikację punktową) obywateli: klasyfikację ludzi na podstawie ich zachowań, statusu społeczno-ekonomicznego lub cech osobistych;
  • systemy identyfikacji biometrycznej działające w czasie rzeczywistym i zdalnie, tj. rozpoznawanie twarzy.

Przepisy dopuszczają pewne wyjątki do celów egzekwowania prawa. Systemy zdalnej identyfikacji biometrycznej funkcjonujące w czasie rzeczywistym są dozwolone w ograniczonej liczbie poważnych przypadków, zaś te działające ze znacznym opóźnieniem – mogą być wykorzystywane do ścigania poważnych przestępstw, wyłącznie za zgodą sądu.

Nowe technologie – Sprawdź aktualną listę szkoleń Sprawdź

Systemy AI wysokiego ryzyka

Co do zasady, system AI uznaje się za system wysokiego ryzyka, jeżeli spełnione są oba poniższe warunki:

  1. System AI jest przeznaczony do wykorzystania jako związany z bezpieczeństwem element produktu objętego unijnym prawodawstwem harmonizacyjnym lub sam system AI jest takim produktem;
  2. Produkt, którego związanego z bezpieczeństwem elementem jest system AI, lub sam system AI jako produkt podlegają ocenie zgodności przez stronę trzecią w związku z wprowadzeniem tego produktu do obrotu lub oddaniem go do użytku.

Technologie wysokiego ryzyka obejmują systemy stosowane w edukacji, służbie zdrowia, rekrutacji czy finansach. Przykładem mogą być systemy AI analizujące podania studentów o stypendia lub przyjęcie na studia. Na gruncie nowych przepisów systemy AI wysokiego ryzyka mogą działać na rynku UE tylko po spełnieniu surowych norm bezpieczeństwa i transparentności. Ma to na celu zapobieżenie dyskryminacji oraz zapewnienie uczciwego traktowania obywateli.

Wymagania przejrzystości

Systemy sztucznej inteligencji tworzące nowe treści, nie zostały uznane na gruncie nowych przepisów za prezentujące wysoki poziom ryzyka.

Muszą one jednak przestrzegać wymogów dotyczących przejrzystości oraz praw autorskich UE, poprzez:

  • ujawnienie, że treść została wygenerowana przez sztuczną inteligencję;
  • zaprojektowanie modelu, by nie generował on nielegalnych treści;
  • publikowanie streszczeń chronionych prawem autorskim danych wykorzystywanych do szkolenia systemów sztucznej inteligencji.

Treści multimedialne, które zostały utworzone lub przetworzone przy użyciu sztucznej inteligencji, muszą być wyraźnie oznaczone, by odbiorcy byli świadomi i mogli rozpoznać tego rodzaju materiały.

Organy monitorujące

Organem odpowiedzialnym za nadzór nad wdrażaniem i przestrzeganiem nowych regulacji jest m.in. Europejski Urząd ds. Sztucznej Inteligencji, który stanowi część struktury administracyjnej Dyrekcji Generalnej ds. Sieci Komunikacyjnych, Treści i Technologii. Został on ustanowiony na podstawie Decyzji Komisji z 24.1.2024 r. ustanawiającej Europejski Urząd ds. Sztucznej Inteligencji (Dz.Urz. UE C z 2024 r. Nr 31, s. 1459).

Kary za nieprzestrzeganie przepisów

Jak wynika z art. 99 AI Act, państwa członkowskie ustanawiają przepisy dotyczące kar i innych środków egzekwowania prawa, które mogą również obejmować ostrzeżenia i środki niepieniężne. Przewidziane kary muszą być skuteczne, proporcjonalne i odstraszające.

Zgodnie z powołanym przepisem:

  • nieprzestrzeganie zakazu praktyk w zakresie AI, o których mowa w art. 5 AI Act, podlega administracyjnej karze pieniężnej w wysokości do 35 mln euro lub – jeżeli sprawcą naruszenia jest przedsiębiorstwo – w wysokości do 7 % jego całkowitego rocznego światowego obrotu z poprzedniego roku obrotowego, w zależności od tego, która z tych kwot jest wyższa;
  • nieprzestrzeganie któregokolwiek z przepisów dotyczących operatorów lub jednostek notyfikowanych, innych niż wskazane powyżej, jest zagrożone administracyjną karą pieniężną w wysokości do 15 mln euro lub – jeżeli sprawcą naruszenia jest przedsiębiorstwo – w wysokości do 3 % jego całkowitego rocznego światowego obrotu z poprzedniego roku obrotowego, w zależności od tego, która z tych kwot jest wyższa;
  • dostarczanie nieprawidłowych, niekompletnych lub wprowadzających w błąd informacji jednostkom notyfikowanym lub właściwym organom krajowym w odpowiedzi na ich wniosek podlega administracyjnej karze pieniężnej w wysokości do 7,5 mln euro lub – jeżeli sprawcą naruszenia jest przedsiębiorstwo – w wysokości do 1 % jego całkowitego rocznego światowego obrotu z poprzedniego roku obrotowego, w zależności od tego, która z tych kwot jest wyższa.

Etap legislacyjny

Komisja Europejska 21.4.2021 r. zaproponowała AI Act. Nowe przepisy zostały przyjęte przez Parlament Europejski 13.3.2024 r., zaś 21.5.2024 r. jednogłośnie zatwierdziła je Rada UE.

AI Act ma zostać opublikowany w Dzienniku Urzędowym UE na przełomie czerwca i lipca. Przepisy wejdą w życie 20 dni po publikacji.

Art. 113 AI Act określa szczegółowo, że:

  • 6 miesięcy po wejściu w życie zaczną obowiązywać ograniczenia dotyczące systemów SI o wysokim ryzyku oraz zakaz dla systemów AI o niedopuszczalnym ryzyku;
  • 9 miesięcy od wejścia w życie powinny zostać udostępnione kodeksy postępowania Europejskiego Biura ds. Sztucznej Inteligencji;
  • 12 miesięcy po wejściu w życie zaczną obowiązywać obostrzenia dla dostawców modeli AI ogólnego przeznaczenia, którzy wprowadzają je właśnie na rynek UE lub oddają do użytku pod własną nazwą lub znakiem towarowym;
  • 18 miesięcy po wejściu w życie zacznie obowiązywać akt wykonawczy Komisji ws. monitorowania systemów AI po wprowadzeniu do obrotu.

Większość obostrzeń zacznie obowiązywać 24 miesiące po wejściu AI Act w życie. Wówczas wdrożone zostaną obowiązki dotyczące systemów sztucznej inteligencji wysokiego ryzyka, a państwa członkowskie implementują przepisy dotyczące kar.

Wszystkie aktualności n.ius® po zalogowaniu. Nie posiadasz dostępu? Kup online, korzystaj od razu! Sprawdź

Artykuł pochodzi z Systemu Legalis. Bądź na bieżąco, polub nas na Facebooku →