Na niedawnym posiedzeniu Komisji IT CCBE (Europejska Rada Adwokatur i Stowarzyszeń Prawnych) mówiono o wdrażaniu Data Act (rozporządzenia ws. danych) w pracy pełnomocników. Jak ta projektowana regulacja wpływa na adwokatów?
Poruszono dwa zagadnienia. Pierwsze o rekomendowaniu uwzględnienia w treści (bądź chociaż w motywach) Data Act, że jego postanowienia w żaden sposób nie uchybią tajemnicy zawodowej (adwokackiej). Różnie to jest definiowane w różnych krajach, ale chodzi o gwarancję poufności kontaktu obywatela z adwokatem. To wynika z orzecznictwa Europejskiego Trybunału Praw Człowieka, jak również z karty praw podstawowych (KPP). W obecnej wersji projektu Data Act nie ma takiego zastrzeżenia. Nie znaczy to, że jest niezgodny z KPP, ale ten brak może rodzić niepewność w niektórych sytuacjach, czy prawo to – jedno z podstawowych w demokracji – będzie realizowane.
A druga kwestia?
Wiąże się z po części z pierwszą, bo dotyczy ogólnej zasady z rozporządzenia ws. danych. Wynika z niej, że niezależnie od tego, czy adwokat będzie oferował swe usługi, czy korzystał z zewnętrznych, może pod tę regulację podlegać. I to jest bardzo niepokojące z perspektywy art. 14, w którym przewidziano, że w sytuacji „wyjątkowej potrzeby” czy „zagrożenia publicznego” będzie można się domagać od adwokata przekazania danych. CCBE zgłaszało konieczność doprecyzowania tych pojęć, bo są one zbyt ogólne. Z jednej strony oczywiście są potrzebne, ale z drugiej może rodzić to pokusę przedmiotowego wykorzystywania przepisów, by takie dane łatwo pozyskać w tym trybie. W obecnym kształcie projektu, bez odpowiednich zastrzeżeń, wyrażamy wątpliwość, czy to jest zgodne z kartą praw podstawowych (art. 52 ust. 1). Bo trudno tu mówić o adekwatności czy proporcjonalności działań, jeśli nie wiadomo, kiedy i na jakich warunkach będzie można je podejmować.
O jakich danych tu mówimy i kto mógłby się ich domagać?
Przepisy rozporządzenia pozwalają interpretować ten zakres bardzo szeroko, właściwie do wszystkiego, co pojawi się w przestrzeni cyfrowej. Żądać tych danych mogłyby zaś „organy sektora publicznego, instytucje, agencje lub organy UE”, wykazując „wyjątkową potrzebę skorzystania z żądanych danych”. Może będzie to doprecyzowane w przepisach krajowych, ale sam fakt, że unijne rozporządzenie stwarza możliwość tak szerokiego uregulowania tego w przepisach krajowych, jest niebezpieczny. Tym bardziej że przepisy o usługach elektronicznych w Polsce już dziś dają duże możliwości żądania różnych danych przez organy ścigania. Powstaje więc sytuacja, w której pewien obszar informacji o obywatelach, dotychczas zastrzeżony dla wąskiego grona instytucji przez to, że jest przetwarzany w formie cyfrowej, staje się dużo łatwiej dostępny dla większej ilości podmiotów. Pojawia się więc zasadnicza wątpliwość, czy są to środki adekwatne do tego, jakie mają nieść korzyści dla ochrony bezpieczeństwa obywateli. Zdobycie danych nie może być nigdy celem samym w sobie – musi być podporządkowane konkretnym potrzebom.
Kolejnym poruszanym na spotkaniu Komisji tematem było rozporządzenie o sztucznej inteligencji. Jak ono wpłynie na pracę pełnomocników?
Problem dotyczy kwestii etycznych związanych z wykorzystaniem takich narzędzi i tego, jak daleko mogą w ogóle pójść te rozwiązania oferowane przez AI. Jakie okoliczności powinny uwzględniać ewentualne regulacje? W niektórych dziedzinach prawa można wręcz matematycznie wyliczyć rozstrzygnięcia. W wypadku prawa administracyjnego może to służyć np. do wyliczania wysokości kary czy wydawania decyzji. Jednak w znaczącej większości spraw wymagane jest jednak odwołanie do pewnych zasad, których nie da się opisać i wyliczyć zero-jedynkowo. Wszystkie właściwie dziedziny prawa korzystają z klauzul generalnych, które stanowią swego rodzaju „wytrychy” zabezpieczające przed niesprawiedliwym korzystaniem z prawa. Zbyt szerokie użycie sztucznej inteligencji może utrudnić dostęp do tych zabezpieczeń i ostatecznie doprowadzić do wypaczenia zasad stosowania prawa. Pojawiają się wątpliwości, jak daleko mogą pójść takie rozwiązania. Z jednej strony mogą służyć do generowania np. umów czy innych dokumentów, zapewniając szerszy dostęp do takich usług, które mogą być jednolicie odtwarzane, ale z drugiej rodzi się pytanie, czy przy bardziej indywidualnych kwestiach, wymagających wnikliwego rozważania, analizy i uwzględnienia wyjątkowości danego przypadku, AI nie zaburzy takiej oceny.
Jakie jeszcze problemy dla adwokatów wiążą się z rozwojem AI?
Nieodmiennie kwestie dotyczące tajemnicy zawodowej. To, co dziś nazywamy sztuczną inteligencją, to nie są przecież mózgi neuronowe, ale właściwie superkomputery, które działają na podstawie danych, które do nich dostarczono. No i pojawia się wątpliwość, w jaki sposób takie dane mogą zostać przekazane na potrzeby działania tego typu urządzeń, tak aby zapewnić minimum poufności, jeśli chodzi o tajemnice zawodową. To kwestia utrzymania zaufania w relacjach z klientami, a relacje te przecież często przybierają postać konkretnych dokumentów, które mogą być następnie przetwarzane przez sztuczną inteligencję. W niektórych sytuacjach może powstać niepewność, czy faktycznie dochodzi do całkowitego zachowania tej tajemnicy. To jednak dopiero teoretyczne rozważania i raczej propozycje regulacji, które mają być przyjęte, niż konkretne rozwiązania. Natomiast sama kwestia etyki zawodowej jest w orbicie zainteresowań CCBE, więc prace nad tym trwają.
Artykuł pochodzi z Systemu Legalis. Bądź na bieżąco, polub nas na Facebooku →