O zamiarze przygotowania takich zasad poinformował prezes NRA na ostatnim posiedzeniu jej prezydium.
– Generatywna AI dynamicznie wchodzi w nasze życie, tworzy też możliwość wykorzystywania jej w praktyce adwokackiej – mówi Przemysław Rosati. – Mamy tu dwa główne zagadnienia: zasady bezpiecznego wykorzystywania tego typu narzędzi (w szczególności chodzi tu o tajemnicę zawodową) oraz odpowiedzialność za skutki korzystania z nich (głównie w aspekcie etyki zawodowej). A ponieważ to zagadnienie nie jest w ogóle uregulowane, to jako samorząd nie możemy nie dostrzegać tego wyzwania – wyjaśnia prezes NRA. Wskazuje, że proces rozwoju generatywnej sztucznej inteligencji jest bardzo dynamiczny, a rekomendacje mają służyć przede wszystkim bezpieczeństwu klientów, ale też adwokatów. Ze względu na konieczność uwzględnienia obu tych aspektów, prace nad rekomendacjami prowadzone będą jednocześnie przez zespół Instytutu LegalTech przy NRA oraz Zespół ds. zmian w Zbiorze Zasad Etyki Adwokackiej i Godności Zawodu.
– Wykorzystywanie narzędzi generatywnej AI (np. ChatGPT lub Bard) jest widoczne w branży prawnej – tłumaczy Przemysław Barchan, dyrektor Instytutu LegalTech. – Technologia niesie ze sobą wiele usprawnień i możliwości, ale jednocześnie wiążą się z nią istotne ryzyka związane m.in. z zapewnieniem poufności informacji objętych tajemnicą zawodową adwokata i bezpieczeństwem cybernetycznym. Planowane rekomendacje i zmiany w regulacjach korporacyjnych mają na celu wsparcie członków samorządu w bezpiecznym i zgodnym z zasadami etyki zawodowej wykorzystaniu AI w praktyce adwokackiej – dodaje.
Jeśli zaś chodzi o kwestie deontologiczne, to podstawowy problem sprowadza się do tego, kto odpowiada za efekt działania takiej generatywnej sztucznej inteligencji.
– Wydaje się oczywiste, że adwokat, podpisując się pod pismem stworzonym przy pomocy AI, bierze odpowiedzialność za jego treść. Ale musimy pamiętać, że jest to zagadnienie, które wymaga jednak uregulowania, by znieść wszystkie wątpliwości, które mogą się pojawić – wskazuje Przemysław Rosati. – Z tymi problemami musimy się zmierzyć. Chcemy w sposób odpowiedzialny i rozsądny podejść do zmieniającej się rzeczywistości, tak by nasza reakcja była proporcjonalna i zabezpieczała interesy klientów. Czeka nas okres jeszcze gwałtowniejszego rozwoju tych narzędzi, a nie jesteśmy w stanie dziś określić ani kierunku, w którym się to rozwinie, ani celu czy jakości informacji uzyskiwanym dzięki tej technologii. Będziemy musieli przyglądać się zmianom, ale jako samorząd zawodu zaufania publicznego musimy właśnie w interesie publicznym objąć pieczą ten aspekt praktyki – podsumowuje.
Jednocześnie prace nad uregulowaniem sztucznej inteligencji (w tym generatywnej) trwają intensywnie na poziomie Unii Europejskiej. Parlament, Rada UE i Komisja prowadzą tzw. trialog, który ma doprowadzić do przyjęcia ostatecznej wersji „Aktu o sztucznej inteligencji”. Wersja przyjęta przez PE zakłada, że treści stworzone przez generatywną AI muszą być wyraźnie oznaczane.
Artykuł pochodzi z Systemu Legalis. Bądź na bieżąco, polub nas na Facebooku →