Prawo o sztucznej inteligencji zostało przegłosowane 14.6.2023 r. w Parlamencie Europejskim zdecydowaną większością głosów.
Panuje powszechna zgoda, że ta szybko rozwijająca się technologia musi podlegać regulacjom. I że w szczególności UE musi kłaść nacisk na ochronę praw podstawowych. Jednak do ostatniej chwili trwał spór o to, jak potraktować systemy biometrycznej identyfikacji. Europejska Partia Ludowa – to największa frakcja, do której należą PO i PSL – optowała za prawem rządów do stosowania takich systemów do poszukiwania zaginionych dzieci, przestępców oraz terrorystów. I przekonywała, że da się to zrobić bez ryzyka nadużyć. Jednak zdaniem obrońców praw człowieka to niemożliwe.
– Ta technologia łamie wiele praw podstawowych: do prywatności, do ochrony danych osobowych, wolność słowa, zgromadzeń, prawo do niedyskryminacji – mówi „Rz” Mher Hakobyan, doradca ds. prawa sztucznej inteligencji Amnesty International.
Ostatecznie w głosowaniu poprawki przepadły, ale to nie koniec. Bo nowe prawo musi być też zaakceptowane przez unijną Radę, czyli rządy państw członkowskich.
– Rada przyjęła swoje stanowisko w grudniu 2022 r. i jest ono nawet gorsze od tych poprawek EPL. Mowa tam o możliwości całkowitej derogacji przez państwa tego zakazu masowej inwigilacji pod pretekstem bezpieczeństwa narodowego, bez jego definicji. Cokolwiek można pod to podciągnąć. Dlatego takie ważne jest, że PE przyjął w tej sprawie twarde, pryncypialne stanowisko – tłumaczy aktywista Amnesty International.
Rozmowy między instytucjami prawdopodobnie potrwają kilka miesięcy.
Komisja Europejska przedstawiła projekt prawa o sztucznej inteligencji w 2021 r., po dwóch latach konsultacji. A i tak już w toku prac nad tym projektem trzeba było uzupełniać zapisy w związku z pojawieniem się generatywnej sztucznej inteligencji, np. ChatGPT. Narzędzia takie będą musiały spełniać wymogi dotyczące przejrzystości. Obowiązkiem będzie oznaczanie treści wygenerowanych przez AI oraz stosowanie instrumentów, które pozwolą odróżnić obrazy rzeczywiste od tzw. deep fake. Ponadto będą one musiały ujawniać streszczenia treści objętych prawami autorskimi, które zostały wykorzystane do trenowania AI.
Nowe prawo określa kategorie ryzyka i w zależności od nich dostawcy systemów będą musieli spełniać różne wymogi. Ale generalnie stosowanie tych narzędzi ma być bardziej transparentne. Organizacje konsumenckie chwalą wymóg informowania konsumentów, jeśli będzie wobec nich stosowany system sztucznej inteligencji wysokiego ryzyka.
Regulacje wprowadzają też obowiązek konsultowania związków zawodowych, zanim system sztucznej inteligencji zostanie wprowadzony w miejscu pracy.
Artykuł pochodzi z Systemu Legalis. Bądź na bieżąco, polub nas na Facebooku →