Porozumienie osiągnięte w kolejnej turze trójstronnych negocjacji (tzw. trilog) Rady, PE i KE to na razie zbiór wytycznych i politycznych kierunków, w jakich ma iść regulacja. Dokładny tekst rozporządzenia ws. AI poznamy za miesiąc lub dwa, gdy zostanie dopracowany. A diabeł, jak zwykle, tkwi w szczegółach.
– Pewne kwestie zostały jednak rozstrzygnięte – np. ta dotycząca modeli generatywnych czy AI ogólnego przeznaczenia, które często są podstawą wielofunkcyjnych systemów i programów, przydatnych w różnych zadaniach, takich jak GPT, Gemini czy Anthropic – mówi Filip Konopczyński z Fundacji Panoptykon. – W ich wypadku regulacja ma działać proporcjonalnie – minimalne obowiązki dla modeli z niewielką ilością użytkowników (firmy, konsumenci), ścisłe regulacje dla tych z najsilniejszą pozycją rynkową – dodaje.
– Z dostępnych komunikatów wynika, że to, co wcześniej wypracowano, zostanie utrzymane – mówi dr Michał Nowakowski, radca prawny z Rymarz Zdort Maruta. – Chodzi o informowanie, na jakich zbiorach danych są „trenowane” modele AI, a także inne obowiązki przejrzystości. Ale w modelach, które rodzą ryzyko systemowe dla praw podstawowych, obowiązki obejmą też np. procedurę raportowania incydentów cyberbezpieczeństwa czy naruszenia praw podstawowych – podsumowuje.
Z kolei Eliza Turowicz, specjalistka w Departamencie Rynku Cyfrowego Konfederacji Lewiatan, mówi, że w ocenie przedsiębiorców nowe brzmienie zaprzecza głównemu podejściu, które przyświecało KE przy publikacji pierwszej wersji projektu, tj. podejściu na podstawie ryzyka.
– Zaproponowany sposób regulowania systemów SI ogólnego przeznaczenia nie uwzględnia faktycznego łańcucha dostaw i nakłada nieproporcjonalne wymogi, które mogą być niemożliwe bądź trudne do spełnienia dla wielu przedsiębiorstw – wskazuje ekspertka. – Może to zdławić konkurencyjność oraz innowacyjność. Przedsiębiorców niepokoi, że z powodu szybkiego tempa negocjacji trilogowych pozostaje wiele niewyjaśnionych kwestii, co może zdezorientować rynek oraz odebrać pewność prawa – dodaje.
Organizacje społeczne mogą być zaś zadowolone z tego, że AI Akt będzie zawierał obowiązek oceny wpływu systemów wysokiego ryzyka na prawa podstawowe i bezpieczeństwo ludzi, prawo do skargi na decyzje podjęte z udziałem AI czy wyjaśnienia decyzji systemu wysokiego ryzyka. Choć w pewnych wypadkach możliwość używania systemu zdalnego rozpoznawania twarzy będzie dozwolona, to tylko za zgodą sądu i do ścigania określonych przestępstw. Zwolnione z tych wymogów będą jednak służby specjalne.
Artykuł pochodzi z Systemu Legalis. Bądź na bieżąco, polub nas na Facebooku →