Przez kilka ostatnich lat Polska zwlekała z wdrożeniem przepisów unijnych dyrektyw prawnoautorskich, których termin implementacji dawno upłynął. Gdy wreszcie się na to zdecydowaliśmy, a procedura legislacyjna ruszyła i polski świat prawniczy wstrzymał oddech, zaraz się okazało, że projekt nie uwzględnia rozwiązań dotyczących generatywnej sztucznej inteligencji. Tak było aż do czwartku 14.3.2024 r. – wtedy to opublikowana została nowa wersja projektu ustawy zmieniającej ustawę o prawie autorskim, podchodząca poważnie do AI i nietraktująca jej już jak ubogiego krewnego.

Mniej ograniczeń

Zmiana, którą zaproponowało w projekcie Ministerstwo Kultury, z pozoru nie należy do największych. Według nowego projektu art. 263 ustawy o prawie autorskim będzie przewidywał, że „wolno zwielokrotniać rozpowszechnione utwory w celu eksploracji tekstów i danych, chyba że uprawniony zastrzegł inaczej”. Jeszcze do niedawna przepis ten kończył się jednak sformułowaniem: „z wyłączeniem tworzenia generatywnych modeli sztucznej inteligencji”. Skąd w ogóle pomysł na takie ograniczenie swobody w „uczeniu” AI? I dlaczego od niego ostatecznie odstąpiono?

Odpowiedź na pierwsze pytanie nie jest do końca jasna. Uzasadnienie projektu wskazywało, że przed laty – gdy tworzone były przepisy wspomnianych dyrektyw – nie była znana skala możliwości algorytmów generatywnej sztucznej inteligencji. Doprowadziło to twórców projektu do wniosku, że rozwiązania z dyrektywy nie były tworzone z myślą o AI w znanym nam dziś kształcie oraz że konieczne jest ograniczenie jej zapędów.

Argumentacja ta upada jednak, gdy spojrzymy na wydarzenia następujące po przyjęciu dyrektywy przez pozostałe państwa europejskie. Nie dość, że w żadnym z nich nie zdecydowano się na wprowadzenie późniejszych ograniczeń dla AI, to jeszcze najnowsze rozporządzenie Parlamentu Europejskiego właściwie potwierdza poparcie państw UE dla tych uregulowań. Chodzi oczywiście o tzw. AI Act, zwany aktem o sztucznej inteligencji, który odwołuje się do norm m.in. aktualnie wdrażanej dyrektywy DSM.

Co do drugiego pytania, to legislator zdecydował się odstąpić od wykluczenia AI pod presją opinii przedstawionych w konsultacjach publicznych. Rozwiązanie to poddano krytyce, wytknięto m.in. niezgodność z prawem unijnym. I faktycznie, wdrożenie przepisów w poprzednim kształcie doprowadziłoby do niepełnej transpozycji prawa UE.

Pogrom twórców?

Najwięcej obaw generatywna sztuczna inteligencja wzbudzała i wzbudza jednak w środowiskach twórczych. Branża kreatywna obawia się, że łatwość dostępu do wytworów AI zdecydowanie pogorszy ich i tak ciężką już sytuację na rynku – zostanie on zasypany milionami tekstów, grafik i utworów muzycznych naśladujących coraz lepiej pracę twórczą człowieka. Sprzeciw artystów budzi też korzystanie przez algorytmy z ich utworów w ramach „uczenia się”.

Rozwiązanie drugiego z problemów przewiduje wdrażane właśnie prawo. Pozwala ono, zgodnie z tzw. modelem opt-out, by twórca wedle uznania nie zezwalał algorytmowi na eksplorację jego utworów (tzw. text-and-data mining) i wykorzystanie ich do generowania treści. Z kolei co do pierwszej z obaw, to niestety nie zostały jeszcze wdrożone żadne zabezpieczenia – pozostaje tylko wierzyć, że rynek zweryfikuje treści i odbiorcy postawią na jakościowe, tworzone przez ludzi dzieła.

Etap legislacyjny: konsultacje

Opinia dla „Rzeczpospolitej”

Michał Markiewicz, specjalista z dziedziny prawa autorskiego, Kancelaria Markiewicz Sroczyński Mioduszewski

Pomysł na taką regulację, tj. wyłączenie wyjątku text-and-data mining na potrzeby nauki generatywnych systemów sztucznej inteligencji, i to na tak późnym etapie prac (ponad 2,5 roku po terminie implementacji), był zaskakujący. Nie tylko dlatego, że żaden kraj Unii Europejskiej nie skierował się w tę stronę, implementując dyrektywę, ale przede wszystkim z tego powodu, że przepis ten ma właśnie służyć legalizacji tego, co wprost chciano w Polsce wyłączyć. Wskazują na to także kolejne, projektowane akty prawa unijnego. Regulacja, z której zrezygnowano, nie miałaby dużego znaczenia dla międzynarodowego rozwoju sztucznej inteligencji. Wszystkie duże modele AI są bowiem „trenowane” poza terytorium Polski, zatem krajowe przepisy i tak nie mają względem tych działań zastosowania. Gotowe modele mogą być natomiast wykorzystywane w Polsce, również niezależnie od komentowanej regulacji. Główny problem polegał na tym, że przyjęcie tej regulacji doprowadziłoby do zmniejszenia polskiej konkurencyjności na rynku AI. Zarówno organizacje badawcze, jak i start-upy zmuszone byłyby do rozwijania swoich narzędzi poza terytorium Polski. Dobrze się stało, że ministerstwo wycofało się z tego pomysłu.

Więcej treści z Rzeczpospolitej po zalogowaniu. Nie posiadasz dostępu? Kup online, korzystaj od razu! Sprawdź

Artykuł pochodzi z Systemu Legalis. Bądź na bieżąco, polub nas na Facebooku →