Niedawno Radio OFF Kraków w ramach „eksperymentu” uruchomiło audycje prowadzone przez prezenterów wykreowanych za pomocą sztucznej inteligencji. Co więcej, podczas jednej z takich audycji „prowadząca” program Emilia „Emi” Nowak przeprowadziła wywiad z… Wisławą Szymborską. Wiele osób oburzyło takie „wskrzeszanie” Szymborskiej przez sztuczną inteligencję. Po fali krytycznych komentarzy i publikacji Radio OFF Kraków zakończyło „eksperyment z audycjami »prowadzonymi« przez AI”. Oznacza to, że nie usłyszymy zapowiadanego na 11 listopada wywiadu z marszałkiem Józefem Piłsudskim. Historia ta pozwala jednak przypuszczać, że w przyszłości może się takich wywiadów pojawiać więcej. Tymczasem nie ma jednoznacznych przepisów pozwalających ocenić takie przypadki z perspektywy prawnej.
Mogą naruszać pamięć?
– Jeżeli mamy do czynienia z piosenką czy wierszem wygenerowanym przez AI na podstawie wielu utworów danego twórcy, to można zastanowić się, czy nie doszło do naruszenia praw autorskich. Podobnie gdyby utwór taki został stworzony bez użycia AI, poprzez przeróbki i wycinanie fragmentów z wcześniejszych utworów – byłby to wówczas utwór zależny. Z kolei w przypadku „wskrzeszania” aktorów na podstawie ich wcześniejszych występów mówilibyśmy o ponownym wykorzystaniu artystycznego wykonania – mówi Katarzyna Orzeł, radca prawna z kancelarii Brightspot.
Dodaje przy tym, że wypowiedzi w ramach wywiadów nie są traktowane w doktrynie jako utwory czy artystyczne wykonania, nie przysługują za nie tantiemy. A zatem także w przypadku generowania takich wywiadów nie możemy mówić o naruszeniu prawa autorskiego. Zatem gdy na podstawie wcześniejszych wypowiedzi generowane są nowe i publikowane np. w formie wywiadu, to nie można mówić o ochronie prawnoautorskiej, a raczej o naruszeniu prawa do pamięci o osobie zmarłej.
– Orzecznictwo jest jednoznaczne w kwestii tego, że nie można naruszyć wizerunku osoby nieżyjącej, jako że to dobro osobiste i wygasa w chwili śmierci – tłumaczy Katarzyna Orzeł. – Ale prawo do kultu pamięci osoby zmarłej jest również bardzo silnie chronionym dobrem osobistym. Do tego stopnia, że można się zastanowić, czy samo tworzenie awatara takiej osoby przez generowanie jej nowych wypowiedzi czy zdjęć nie narusza praw osób najbliższych jako szczególnie z nią związanych. Niekoniecznie muszą być to więc wypowiedzi stawiające tę osobę w złym świetle – dodaje prawniczka.
Zgoda na klonowanie
Inna jest sytuacja, gdy dana osoba jeszcze za życia wyrazi zgodę na wykorzystywanie jej wizerunku czy głosu przez generatywną AI. – Ciężko jest jednak jednoznacznie powiedzieć, czy po śmierci dalej jesteśmy dysponentami swojego wizerunku. Na pewno zgoda jest jednak argumentem, który może być użyty przy badaniu bezprawności wykorzystania wizerunku lub głosu – wskazuje Katarzyna Orzeł.
Na omawiany aspekt zwracają też uwagę inni eksperci.
– Wychodzę z założenia, że aby odtworzyć czyjś głos lub wizerunek w ten sposób, potrzebna jest jego zgoda. Jakiś czas temu lektor, który udzielał głosu Darthowi Vaderowi, wyraził uprzednią zgodę na to, aby jego głos był w przyszłości „klonowany” i wykorzystywany na potrzeby różnych produktów. I to nie budzi moich wątpliwości, bo miał szansę tę zgodę wyrazić. Natomiast jeśli mówimy o spadkobiercach praw autorskich, to jestem daleki od stwierdzenia, że obejmują one prawo do „wskrzeszania” kogoś, choć pewnie znajdą się głosy odmienne od mojego – mówi dr Michał Nowakowski, radca prawny i partner w kancelarii Zackiewicz & Partners. – Czym innym jest wykorzystanie na nowo istniejącego wiersza czy teledysku, a czym innym generowanie nowych wypowiedzi, „wkładanie jej w usta” osoby zmarłej, choć być może ona nigdy by tego nie powiedziała i nie chciałaby powiedzieć – podkreśla ekspert.
I dodaje, że jest to dyskusyjne z punktu widzenia nie tylko przepisów prawa, ale i etyki. Tworzenie tego typu treści bez odpowiedniej zgody może otworzyć drogę do roszczeń o naruszenie dóbr osobistych. Nie ma też dużego znaczenia, czy do takiego odtworzenia użyto narzędzi sztucznej inteligencji, czy innych technologii. Ważna jest zewnętrzna percepcja takiego materiału.
– Zakładając nawet, że mamy na to odpowiednie zgody i umowy, to trzeba się zastanowić, czy powinniśmy to robić. Nawet jeżeli uznamy, że z punktu widzenia prawa coś możemy, to może jednak nie powinniśmy? Pamiętajmy o godności ludzkiej – podsumowuje prawnik.
Deep fake i inne problemy
Zauważa przy tym, że sam AI Act zawiera przepisy dotyczące deep fake’ów, czyli treści generatywnych mających udawać autentyczne. Wprowadzono obowiązek oznaczania ich jako stworzonych przez sztuczną inteligencję. Ale chodzi tylko o obowiązek przejrzystości i informowania ludzi, że nie jest to autentyczna wypowiedź, a do stosowania tych przepisów zostały jeszcze prawie dwa lata. Z kolei Katarzyna Orzeł zwraca uwagę, że akt o sztucznej inteligencji nie rozwiewa wszystkich wątpliwości co do tego, jak traktować wytwory AI.
– Z jednej strony nie było tu wkładu twórczego człowieka, ale z drugiej, pojawiają się głosy, że należy przyznać takim wytworom prawną ochronę opartą na reżimie prawnoautorskim lub podobnym. Nie zapominajmy też, że wielu artystów używa AI jako narzędzia to tworzenia swoich utworów, więc takie ostre wyłączenie pozbawiałoby ich ochrony – podsumowuje ekspertka.
Artykuł pochodzi z Systemu Legalis. Bądź na bieżąco, polub nas na Facebooku →