Digital Service Act to unijne rozporządzenie nakładające nowe obowiązki na dostawców usług internetowych. Na razie tylko na cyfrowych gigantów wskazanych przez Komisję Europejską, takich jak Meta, Twitter (X), TikTok czy YouTube, popularne wyszukiwarki Google i Microsoftu, platformy sprzedażowe jak Amazon czy AliExpress, a nawet Wikipedia. Od 25.8.2023 r. mają one wiele nowych obowiązków i ograniczeń.
Większa przejrzystość
– Nowe regulacje dotyczą m.in. algorytmów odpowiedzialnych za personalizację treści, które „decydują”, jakie treści, w tym tzw. targetowane reklamy, użytkownik widzi ostatecznie na ekranie – mówi Dorota Głowacka z Fundacji Panoptykon. – Dziś są tak zaprojektowane, aby budzić jak największe zaangażowanie i emocje, byśmy spędzali na platformach jak najwięcej czasu. W konsekwencji treści, które nam podsuwają, często nie są wartościowe, a dla niektórych użytkowników wręcz szkodliwe. Z badań wiemy, że mogą napędzać depresję, lęki, uzależnienia czy zaburzenia odżywiania. Mogą też przyczyniać się do szerszego rozpowszechniania dezinformacji i innych toksycznych treści – dodaje.
DSA daje szansę na korzystną dla użytkowników zmianę sposobu działania takich algorytmów – platformy muszą bowiem wyjaśnić logikę i główne parametry ich działania. Po drugie cyfrowi giganci muszą umożliwić użytkownikowi wybór przynajmniej jednego alternatywnego systemu rekomendacji (nieopartego na profilowaniu). DSA wprowadza też zakaz używania do targetowania reklam, danych wrażliwych i danych dzieci. Nie obliguje jednak platform do zapewnienia użytkownikom narzędzi pozwalających wpłynąć na charakter wyświetlanych treści w swoim podstawowym systemie (np. wskazywać, których treści chcieliby widzieć więcej, a których mniej).
– Jeśli jednak platforma decyduje się wprowadzić jakieś możliwości „zarządzania” domyślnym newsfeedem, opcje te muszą być łatwe do użycia i skuteczne – tłumaczy Dorota Głowacka. – Dziś takie narzędzia istnieją na niektórych platformach, ale z własnego doświadczenia wiemy, że nie zawsze działają.
Procedury odwoławcze
DSA dodaje operatorom platform obowiązki moderowania treści. Na razie tym największym, ale w lutym już wszystkim.
– Każdy portal oferujący udostępnianie treści online będzie musiał je moderować, a po ich usunięciu poinformować o przyczynach i umożliwić użytkownikowi odniesienie się do tej decyzji – mówi Jakub Kubalski, adwokat z SSW Solutons.
DSA ma ułatwić zgłaszanie bezprawnych treści, a platformom nakazuje wyjaśnianie, dlaczego daną treść zablokowały. Musi też istnieć skuteczna procedura odwoławcza z udziałem człowieka. Będzie też możliwość odwołania się do podmiotów zewnętrznych. Ich rozstrzygnięcia nie będą wiążące, ale stosowanie się do nich będzie zaliczane do „środków minimalizujących ryzyka systemowe”. Wielkie platformy muszą bowiem dokonać oceny systemowych ryzyk, jakie niosą ich działania, oraz przyjąć odpowiednie środki ich ograniczania (będzie to poddane zewnętrznemu audytowi i nadzorowi KE). Finalnie zaś decyzję ws. usunięcia lub nie danej treści będzie można zaskarżyć do sądu.
– A już dziś ludzie procesują się o to, co dzieje się w internecie. Dla polskich sądów nie jest to „terra incognita” – podsumowuje Jakub Kubalski.
Artykuł pochodzi z Systemu Legalis. Bądź na bieżąco, polub nas na Facebooku →