Choć wiele zmian przyjętych w czwartek przed komisje LIBE i IMCO (w Parlamencie Europejskim) cieszy, to niektóre z nich mogą być bardzo trudne do wprowadzenia. A w dodatku utrudnić dalszy rozwój sztucznej inteligencji.
Prócz rozszerzenia katalogu zakazanych systemów AI, poprawki przewidują też ściślejszą kontrolę nad tzw. systemami wysokiego ryzyka oraz ogólnego przeznaczenia, w tym generatywną sztuczną inteligencją (np. ChatGPT).
– Na pierwszy rzut oka propozycja PE wydawać się „populistyczna”. W praktyce jednak mają kolosalne znaczenie z punktu widzenia obywateli UE i w ogóle roli człowieka w relacji z systemami sztucznej inteligencji – mówi dr Michał Nowakowski radca prawny, specjalista w zakresie sztucznej inteligencji – Duży nacisk położono na ochronę praw podstawowych oraz tworzenia i wykorzystywania sztucznej inteligencji w sposób etyczny. Komisje rozszerzyły też definicję samej AI – by objęła ona znacznie więcej systemów.
Spełnienie wymogów
Systemy „wysokiego ryzyka” obłożone mają być licznymi wymaganiami i ograniczeniami, z których najważniejsze dotyczą zakazu dyskryminacji, zapewnienia wysokiej jakości danych, dokładności, bezpieczeństwa i nadzoru człowieka na AI. Ale także dobrostanu środowiskowego i społecznego, przejrzystości, odpowiedzialności i ochrony danych oraz prywatności. Są kierowane zarówno do dostawców, jak i użytkowników tych systemów. Dr Michał Nowakowski wskazuje, że dużym wyzwaniem technologicznym i biznesowym będzie nie tylko spełnienie tych wymogów, ale też ich audytowanie i kontrola, także w bieżącym monitoringu. Łączy się to też z kwestią identyfikacji i oceny wpływu danego systemu na prawa podstawowe.
– Nie ma bowiem wciąż odpowiednich narzędzi, które zapewnią taką audytowalność. Moim zdaniem organy państwa nie poradzą sobie z tym same, choćby ze względu na ilość tych systemów i ograniczenia infrastrukturalne, kompetencyjne oraz operacyjne. Takiego wyzwania mogłyby podjąć się podmioty prywatne, ale „certyfikowane” przez państwo – tłumaczy ekspert.
Generowanie treści
Duży problem legislatorom sprawia też osławiony ChatGPT oraz inne systemy sztucznej inteligencji służące do tworzenia nowych tekstów, obrazów czy dźwięków. Jak pisaliśmy niedawno w „Rz”, opierają się one na miliardach już istniejących dzieł, a prawo do korzystania z nich budzi duże kontrowersje. Dlatego wśród poprawek PE znalazł się też przepis nakazujący oznaczanie, że dana treść została stworzona przez sztuczną inteligencję, oraz publikowanie podsumowań danych, na których „uczyła się” taka sztuczna inteligencja, objętych prawami autorskimi.
– Jest to zobowiązanie, które UE będzie chciała wymusić na twórcach sztucznej inteligencji. Pod znakiem zapytania stoi kwestia weryfikacji, czy faktycznie dany system AI sięga wyłącznie do wskazanych, legalnych źródeł – mówi radca prawny Ewa Kurowska-Tober, partner i kierowniczka praktyki prawa własności intelektualnej w warszawskim biurze DLA Piper. – To słuszny kierunek, ale nie można wykluczyć, że w wyniku tych regulacji rozwój sztucznej inteligencji będzie trudniejszy w UE niż np. w USA – dodaje.
Również Michał Nowakowski wskazuje, że choć idea poddania takich systemów surowszym wymaganiom jest słuszna, to może znacząco wpłynąć na ich dokładność i efektywność. Szczególnie trudne może się okazać zagwarantowanie przestrzegania przez nie praw podstawowych, w szczególność ochrony danych osobowych.
– Jeśli te modele trenowane są na „całym internecie”, siłą rzeczy obejmie to szereg danych, których wykorzystanie jest co najmniej wątpliwe zarówno moralnie, jak i prawnie – podsumowuje ekspert.
Filip Konopczyński, prawnik i specjalista ds. regulacji sztucznej inteligencji i nowych technologii Fundacji Panoptykon
AI Act, choć to pierwsza tak ambitna i przekrojowa regulacja na świecie, nie rozwiąże wszystkich problemów, które (obok wielu korzyści) przyniesie dalszy rozwój tej dziedziny. Nie sprawi, że Europa stanie się światowym liderem komercyjnych zastosowań AI. Do tego potrzebne są ogromne nakłady, których nasi politycy i firmy nie są chętni wyłożyć. Nie zagwarantuje też, że prawa Europejczyków nie będą naruszane przez nieetyczne firmy czy rządzących. Jeśli jednak Akt zostanie przyjęty w tej (lub, na co mamy nadzieję, jeszcze poprawionej) formie, to da nam, obywatelom, konsumentkom, użytkownikom, podstawę regulacyjną do tego, aby systemy AI w Europie rozwijane były w naszym interesie, a nie naszym kosztem. Jako Panoptykon będziemy dalej zabiegać o rozwiązania ważne dla obywateli, takie jak m.in. związane z systemem oceny programów wysokiego ryzyka czy szerszego obowiązku informowania o stosowaniu wobec nas AI.
Artykuł pochodzi z Systemu Legalis. Bądź na bieżąco, polub nas na Facebooku →