O dezinformacji z wykorzystanie mówi głównie w kontekście polityki czy oszustw finansowych z wykorzystaniem wizerunku znanych osób. Tymczasem, jak wynika z raportu Obserwatorium Demokracji Cyfrowej, do którego dotarła „Rzeczpospolita”, aż 90 proc. zastosowania tej technologii dotyczy „niekonsensualnych syntetycznych podobizn intymnych” potocznie zwanych też „deep porn”. W niemal stu procentach ofiarami tych działań są kobiety (przykładowo, amerykański raport dotyczący stosowania deep porn wobec członków Kongresu wykazał, że na 26 poszkodowanych 25 stanowiły kobiety).
Skutki dla ofiar
Dr Karolina Mania (współautorka raportu „Deepfake i nadużycia na tle seksualnym – prawo wobec wyzwań syntretycznych mediów”) – wskazuje, iż ofiary niekonsensualnej pornografii zmagają się z długotrwałymi negatywnymi skutkami psychologicznymi ataków, a wiele kobiet decyduje się na ograniczenie swojej aktywności online w obawie przed ponownym wykorzystaniem ich wizerunku. Konsekwencje mają zatem również wymiar społeczny i polityczny.
Tymczasem przepis penalizujący „tradycyjne” naruszenie intymności seksualnej, tj. art. 191a KK, mówi jedynie, że karze podlega ten, kto „utrwala wizerunek nagiej osoby lub osoby w trakcie czynności seksualnej, używając w tym celu wobec niej przemocy, groźby bezprawnej lub podstępu, albo wizerunek nagiej osoby lub osoby w trakcie czynności seksualnej bez jej zgody rozpowszechnia”. Zdaniem autorów raportu taka definicja nie odnosi się wprost do treści wygenerowanych przez AI, a więc ich ściganie w oparciu o ten przepis może być trudne.
– W doktrynie nie ma jednoznacznego podejścia i czasem rozszerzająca interpretacja może nie być uprawniona. Znaczna część syntetycznej pornografii to sytuacje, w których na znany wcześniej materiał nałożono twarz innej kobiety. Dlatego potrzebujemy precyzyjnych przepisów, które będą chronić ofiary – mówi Mateusz Łabuz, jeden ze współautorów raportu.
I dodaje, że przepisy takie wprowadziły już niektóre stany USA, ale też Wielka Brytania, Australia czy Korea Południowa.
Problem z definicją sztucznej inteligencji i określeniem znamion czynu.Problem jednak w tym, że wprowadzając sankcję karną, trzeba dokładnie określić znamiona czynu zabronionego. A nawet unijny AI Akt nie definiuje samego pojęcia sztucznej inteligencji. Nie daje on też oddzielnych narzędzi do ścigania tego rodzaju deepfake’ów. Zresztą, jak zauważa dr Michał Nowakowski, radca prawny z Zackiewicz & Partners, specjalista z zakresu prawa sztucznej inteligencji, osoby prywatne działające poza sferą zawodową (czyli np. licealista, który stworzył taki materiał na złość koleżance) nie są objęte AI Aktem.
– Od dawna też postuluje się zmianę kodeksu karnego, przez wprowadzenie jednoznacznego przepisu zakazującego wykorzystywania wizerunku na potrzeby tworzenia takich deepfake’ów o charakterze pornograficznym – tłumaczy ekspert.
I dodaje, że definicja deepfake’ów (zawarta w art. 50 AI Aktu) jest wystarczająca dla takiej ochrony, nie trzeba w tym celu definiować prawnie samej sztucznej inteligencji (szczególnie aspektów technicznych), co byłoby bardzo trudne i niecelowe.
Regulacje powinny być precyzyjne
– Przepis powinien jednak wprost zakazywać wykorzystywania rezultatów wykorzystania rozwiązania, np. w odniesieniu do niekonsensualnych materiałów pornograficznych. Precyzja jest tutaj niezbędna, bo mówimy o odpowiedzialności karnej. Nie można też doprowadzić do całkowitego zakazu stosowania deepfake’ów jako takich. Mimo negatywnych konotacji z nazwą „deepfake” jest ona czasem przydatna i potrzebna – tłumaczy ekspert.
Inną nadzieją na pomoc ofiarom jest unijna dyrektywa ws. zwalczania przemocy domowej i przemocy wobec kobiet. Wprost nakazuje ona penalizację opisanych wyżej praktyk – a termin na jej wdrożenie Polska ma do 14 czerwca 2027 r.
Przepisy dyrektywy UE
Odnośne przestępstwo (…) powinno obejmować wszystkie rodzaje takich treści (…), w tym obrazy oraz nagrania audio i wideo nacechowane seksualnie. Powinno ono odnosić się do sytuacji, w których publiczne udostępnianie treści za pomocą ICT [technologii komunikacyjno-informacyjnych] odbywa się bez zgody ofiary (…). Przestępstwo to powinno również obejmować wytwarzanie treści bez zgody lub manipulowanie nimi lub ich zmienianie, np. przez edytowanie obrazów, m.in. z wykorzystaniem sztucznej inteligencji, które to treści sprawiają wrażenie, że osoba uczestniczy w czynnościach seksualnych, o ile treści te są następnie udostępniane publicznie za pośrednictwem ICT bez zgody tej osoby. Takie wytwarzanie, manipulowanie lub zmienianie powinno obejmować wytwarzanie treści »deepfake«, w których prezentuje się osoby, przedmioty, miejsca lub inne podmioty bądź wydarzenia wyraźnie podobne do istniejących naprawdę i które przedstawiają czynności seksualne danej osoby i błędnie wydają się innym osobom autentyczne lub prawdziwe.
Artykuł pochodzi z Systemu Legalis. Bądź na bieżąco, polub nas na Facebooku →