Podczas setnego posiedzenia plenarnego, Europejska Rada Ochrony Danych (dalej: EROD) przyjęła 17.12.2024 r. opinię dotyczącą wykorzystania danych osobowych w kontekście tworzenia i wdrażania modeli sztucznej inteligencji (Opinia 28/2024). W odpowiedzi na rosnące znaczenie przetwarzania danych przez systemy uczące się, opinia ta stanowi próbę uporządkowania zagadnień prawnych, które dotychczas pozostawały rozproszone w orzecznictwie, zaleceniach sektorowych oraz komentarzach naukowych. Urząd Ochrony Danych Osobowych udostępnił nieoficjalne tłumaczenie tego dokumentu, ułatwiając jego wykorzystanie w krajowej praktyce regulacyjnej i technologicznej.

W centrum analizy EROD znalazły się trzy kwestie, które mają kluczowe znaczenie dla zgodności z rozporządzeniem Parlamentu Europejskiego i Rady (UE) 2016/679 z 27.4.2016 r. w sprawie ochrony osób fizycznych w związku z przetwarzaniem danych osobowych i w sprawie swobodnego przepływu takich danych oraz uchylenia dyrektywy 95/46/WE (ogólne rozporządzenie o ochronie danych) (Dz.Urz. UE L z 2016 r. Nr 119, s. 1; dalej: RODO): (1) warunki, w jakich model AI może zostać uznany za anonimowy, (2) dopuszczalność zastosowania podstawy prawnej w postaci prawnie uzasadnionego interesu oraz (3) skutki opracowania modelu z naruszeniem zasad legalności przetwarzania danych osobowych.

Anonimizacja modelu – wyzwanie nie tylko techniczne

Zagadnienie anonimizacji modeli AI zostało potraktowane przez EROD z wyjątkową precyzją. Rada wyraźnie podkreśla, że nie wystarczy techniczna trudność w identyfikacji osoby fizycznej – anonimowość musi być oceniana z punktu widzenia bardzo małego prawdopodobieństwa zarówno bezpośredniej, jak i pośredniej identyfikacji osoby, której dane były wykorzystywane przy tworzeniu modelu. Co istotne, kryterium to obejmuje również możliwość odtworzenia danych wejściowych z gotowego modelu przy użyciu zapytań czy ataków typu model extraction. W praktyce oznacza to, że sama pseudonimizacja – polegająca np. na usunięciu imion i nazwisk – nie wystarcza. Wymagana jest głęboka analiza, uwzględniająca kontekst, metody uczenia oraz podatność modelu na wycieki danych.

Z perspektywy administratorów danych i inżynierów AI oznacza to konieczność prowadzenia dokumentacji wykazującej, w jaki sposób osiągnięto stopień „very unlikely” możliwości identyfikacji. W opinii wskazano przykładowe metody anonimizacji, choć nie mają one charakteru wiążącego. Praktycznie rzecz biorąc, anonimizacja przestaje być jednorazowym procesem technologicznym, a staje się wymagającym zadaniem zarządczym i prawnym, ocenianym indywidualnie przez organy nadzorcze.

Prawnie uzasadniony interes – przesłanka obciążona warunkami

W świetle opinii EROD zastosowanie art. 6 ust. 1 lit. f RODO jako podstawy prawnej do trenowania modeli AI wymaga przeprowadzenia testu równowagi interesów. Rada przypomina, że ocena musi obejmować trzy elementy: istnienie interesu administratora (lub strony trzeciej), bezwzględną niezbędność przetwarzania danych dla realizacji tego interesu oraz brak nadrzędności interesów lub podstawowych praw i wolności osób, których dane dotyczą.

Europejska Rada Ochrony Danych wprowadza do tej analizy bardzo przydatne kryteria dotyczące „uzasadnionych oczekiwań” osób fizycznych. Czy dane były publicznie dostępne? Czy relacja między osobą a administratorem uzasadniała ten rodzaj przetwarzania? Czy kontekst, w którym dane zostały zebrane, wskazywał na możliwość ich dalszego wykorzystania w uczeniu maszynowym? Czy osoba była świadoma, że jej dane są dostępne online? Te pytania są niezbędne przy konstruowaniu prawidłowej podstawy prawnej. Co więcej, nawet gdy interes administratora zostanie uznany za uzasadniony, przetwarzanie danych osobowych do celów AI będzie dozwolone tylko wtedy, gdy nie istnieje inna, mniej inwazyjna metoda osiągnięcia tego celu.

Przykłady przytoczone w opinii – jak konsultanci wspierani przez AI czy narzędzia poprawiające cyberbezpieczeństwo – ilustrują dopuszczalne scenariusze, ale tylko przy spełnieniu rygorystycznych warunków. Jeśli test równowagi wskazuje na ryzyko naruszenia praw jednostki, EROD zaleca wdrożenie środków łagodzących, takich jak większa przejrzystość, możliwość zgłoszenia sprzeciwu lub techniczne ograniczenie przetwarzania danych.

Nowe technologie – Sprawdź aktualną listę szkoleń Sprawdź

Niezgodne z prawem źródła danych – zagrożenie dla całego modelu

Jednym z najbardziej stanowczych fragmentów opinii EROD jest analiza skutków prawnych, jakie niesie za sobą użycie nielegalnie pozyskanych danych osobowych. Jeśli model został wytrenowany na danych przetwarzanych z naruszeniem zasad RODO (np. bez podstawy prawnej, bez spełnienia obowiązku informacyjnego lub z naruszeniem zasady minimalizacji), może to skutkować zakwestionowaniem legalności zarówno samego modelu, jak i jego dalszego wykorzystania. Jedyną szansą na „uratowanie” takiego modelu jest wykazanie, że dane zostały w międzyczasie skutecznie zanonimizowane. To podejście EROD uderza bezpośrednio w praktyki pozyskiwania zbiorów danych z otwartych źródeł bez weryfikacji statusu prawnego ich przetwarzania.

Ocena skutków (DPIA) jako element obowiązkowy

Choć nie wynika to bezpośrednio z komunikatu UODO dostępnego na stronie organu nadzorczego, opinia EROD jednoznacznie sugeruje, że większość operacji związanych z trenowaniem modeli AI na danych osobowych będzie wymagała przeprowadzenia oceny skutków dla ochrony danych (dalej: DPIA). Systematyczne monitorowanie zachowań, skalowalność przetwarzania, innowacyjność zastosowanej technologii oraz przetwarzanie danych wrażliwych to czynniki, które nie tylko uruchamiają obowiązek DPIA, ale również mogą wskazywać na wysokie ryzyko naruszenia praw osób fizycznych. Administratorzy danych powinni traktować tę opinię jako impuls do zrewidowania, czy prowadzony projekt AI nie wymaga sporządzenia takiej oceny — i czy nie powinien zostać poprzedzony konsultacją z organem nadzorczym.

Konsekwencje dla AI Act – wspólna oś regulacyjna

Opinia EROD nie odnosi się bezpośrednio do rozporządzenia Parlamentu Europejskiego i Rady (UE) 2024/1689 z 13.6.2024 r. w sprawie ustanowienia zharmonizowanych przepisów dotyczących sztucznej inteligencji oraz zmiany rozporządzeń (WE) nr 300/2008, (UE) nr 167/2013, (UE) nr 168/2013, (UE) 2018/858, (UE) 2018/1139 i (UE) 2019/2144 oraz dyrektyw 2014/90/UE, (UE) 2016/797 i (UE) 2020/1828 (akt w sprawie sztucznej inteligencji) (Dz.Urz. UE L z 2024 r. Nr 131, s. 1689; dalej: AI ACT) – jej treść w oczywisty sposób wpisuje się w ramy tej regulacji. W kontekście AI ACT, modele wykorzystujące dane osobowe, zwłaszcza w obszarach takich jak zatrudnienie, edukacja, zdrowie, dostęp do świadczeń czy profilowanie konsumentów, mogą zostać zakwalifikowane jako systemy wysokiego ryzyka. Wymagają one wówczas nie tylko zgodności z RODO, ale również wdrożenia środków w zakresie dokumentowania danych treningowych, audytowalności, przejrzystości oraz zarządzania ryzykiem. Opinia EROD dostarcza zatem administratorom i twórcom systemów AI narzędzi, które – choć tworzone w oparciu o przepisy RODO – mają znacznie szersze zastosowanie.

Opinia EROD to dokument o dużej wadze interpretacyjnej, który przekłada ogólne zasady RODO na konkretne wyzwania związane z budową i wdrażaniem modeli sztucznej inteligencji. Wzmacnia ona wymogi legalności i odpowiedzialności, akcentując potrzebę holistycznego podejścia: od doboru danych i oceny ich legalności, przez właściwą podstawę prawną, aż po techniczne zabezpieczenia i kontrolę skutków dla osób, których dane są przetwarzane. W perspektywie nadchodzącego pełnego stosowania AI ACT, opinia ta może pełnić funkcję łącznika między „klasycznym” podejściem do ochrony danych osobowych a nowym paradygmatem regulacyjnym dotyczącym zautomatyzowanego podejmowania decyzji i przetwarzania o dużej skali. Dla wszystkich uczestników procesu – prawników, programistów i administratorów – opinia EROD stanowi punkt wyjścia do świadomego i odpowiedzialnego projektowania systemów AI.

Opinia EROD 28/2024 w sprawie niektórych aspektów ochrony danych związanych z przetwarzaniem danych osobowych w kontekście modeli sztucznej inteligencji.

Wszystkie aktualności n.ius® po zalogowaniu. Nie posiadasz dostępu? Kup online, korzystaj od razu! Sprawdź

Artykuł pochodzi z Systemu Legalis. Bądź na bieżąco, polub nas na Facebooku →