Badania przeprowadzone w listopadzie zeszłego roku przez Deloitte na grupie ponad 2 tys. polskich internautów w wieku od 18 do 65 lat wykazały, że 47 proc. badanych słyszało o generatywnej sztucznej inteligencji. Dwie trzecie z tych osób choć raz skorzystało z tego rodzaju narzędzi, a 43 proc. spośród badanych korzystających z generatywnej AI uważa, że zawsze podaje ona odpowiedzi oparte na faktach oraz bezstronne.
Tymczasem, jak informuje serwis ChrońPESEL, technologia ta coraz częściej używana jest do zdobycia dostępów do kont bankowych lub systemów biznesowych, a także profilów w mediach społecznościowych, stalkowania czy pisania fałszywych e-maili i esemesów w celu wyłudzenia danych osobowych.
– Jednym z najprostszych zastosowań sztucznej inteligencji do wyłudzenia danych osobowych jest phishing, czyli wysyłanie e-maili podszywających się pod jakąś instytucję. Jesteśmy w nich proszeni o podanie danych osobowych albo przekierowywani do fałszywych stron internetowych – mówi Bartłomiej Drozd, ekspert z ChrońPESEL.
I dodaje, że choć tego rodzaju materiały są już tworzone od dawna, to zwykle łatwo było je odróżnić, gdyż zawierały mnóstwo błędów gramatycznych i ortograficznych. Tymczasem wykorzystywanie dużych modeli językowych coraz częściej eliminuje ten problem, a AI umie bezbłędnie na- śladować określony styl tekstu.
Szczególnie niebezpieczna jest tzw. technologia deepfake, czyli „podrabianie” cudzego wizerunku lub głosu. I choć najczęściej słyszy się o tego rodzaju materiałach z udziałem znanych polityków (co także często ma zachęcić do skorzystania z oferty fałszywej inwestycji, wzbudzając do niej zaufanie), to można wykorzystać ją także do podszycia się pod członków rodziny czy znajomych. Według badań przeprowadzonych przez firmę McAfee na grupie 7000 internautów z siedmiu krajów co dziesiąty z nich padł ofiarą takiego oszustwa, a kolejne 15 proc. tego doświadczyło. Ponad połowa badanych deklaruje, że udostępnia swój głos w sieci co najmniej raz w tygodniu.
Czy AI Act, przyjęty niedawno przez Parlament Europejski, ma szanse zaradzić tym zjawiskom?
– Wpływ bezpośredni na użytkowników takich narzędzi, także jeśli stosują je w celu dokonania oszustw, jest bardzo ograniczony – mówi dr Michał Nowakowski, partner w ZP Zackiewicz & Partners. – Nieco inaczej kształtuje się sytuacja w systemach zakazanych i wysokiego ryzyka, ale i tutaj istotne będzie ustalenie podmiotu odpowiedzialnego na gruncie AI Act i mało prawdopodobne, aby systemy z obszaru deepfake podpadały pod którąkolwiek z tych kategorii – dodaje.
Twórcy narzędzi AI będą musieli zapewnić, że treści przez nie stworzone będą jako takie oznaczane. Ale, jak wskazuje dr Nowakowski, nic nie stoi na przeszkodzie, by takie oznaczenie usunąć (nawet jeśli ma formę znaku wodnego) i kolportować w social mediach jako autentyczne. Dlatego skuteczniejsze mogą się tu okazać przepisy karne czy odszkodowawcze na poziomie krajowym. Wciąż jednak trudno będzie je egzekwować np. wobec zagranicznej grupy hakerów.
– Omawiana regulacja nie dezaktualizuje innych obowiązków prawnych, jak chociażby powinności moderacji treści nielegalnych na podstawie aktu o usługach cyfrowych (DSA) czy zobowiązania bardzo dużych platform internetowych oraz bardzo dużych wyszukiwarek internetowych do identyfikowania i ograniczania ryzyka systemowego. Może ono wynikać z rozpowszechniania treści sztucznie wygenerowanych lub zmanipulowanych – wskazuje dr Maria Dymitriuk, radca prawny w Olesiński i Wspólnicy.
Artykuł pochodzi z Systemu Legalis. Bądź na bieżąco, polub nas na Facebooku →