Twój głos i wizerunek powinien być wyłącznie twój. Kilka sposobów na zwalczanie deepfejków
Sztuczna inteligencja generatywna potrafi dziś fałszować rzeczywistość na skalę przemysłową. Deepfejki – czyli zdjęcia, filmy i nagrania audio wykorzystujące SI do tworzenia przekonujących, lecz całkowicie sfabrykowanych wizerunków ludzi lub wydarzeń – to nie tylko problem treści internetowych, ale i ładu społecznego. Potęga sztucznej inteligencji w tworzeniu słów i obrazów, które wydają się prawdziwe, choć takie nie są, zagraża społeczeństwu, krytycznemu myśleniu i stabilności cywilizacji. Społeczeństwo, które nie potrafi odróżnić prawdy od fałszu, nie jest w stanie samo się rządzić.
Potrzebujemy przepisów prawa, które będą chronić godność człowieka i demokrację. Przykład daje Dania. W czerwcu duński rząd zaproponował nowelizację ustawy o prawie autorskim, która przyznałaby ludziom prawo do własnego wizerunku i głosu. Projekt zakłada zakaz tworzenia deepfejków bez zgody danej osoby oraz kary dla tych, którzy złamią to prawo. Wprowadza w życie zasadę, że „należysz do siebie” – jesteś właścicielem własnej tożsamości.
To, co czyni duńskie podejście tak skutecznym, to obawa korporacji przed konsekwencjami prawnymi naruszenia praw autorskich. W badaniu opublikowanym w 2024 roku w serwisie preprintów arXiv.org naukowcy zamieścili na platformie X (dawny Twitter) 50 aktów deepfejków i zgłosili je na dwa sposoby: 25 jako naruszenie praw autorskich, a 25 jako nagość bez zgody przedstawionej osoby, zgodnie z zasadami platformy.
X szybko zareagował na zgłoszenia dotyczące praw autorskich, lecz nie podjął żadnych działań wobec naruszeń prywatności. Prawa autorskie zadziałały – prywatność nie.
Proponowana zmiana duńskiego prawa przyznałaby ofiarom deepfejków prawo do usunięcia materiału oraz do odszkodowania – co jest istotne, ponieważ szkody powodowane przez deepfejki nie są abstrakcyjne. Twórcy takich treści szantażują ofiary dla pieniędzy, usług seksualnych lub w celu uzyskania kontroli; niektóre z tych filmów doprowadziły do samobójstw – zwłaszcza w przypadku nastoletnich chłopców oszukanych przez przestępców. Zdecydowana większość ofiar to jednak kobiety i dziewczęta. Badania pokazują, że 96% deepfejków powstaje bez zgody osób przedstawionych, a 99% pornograficznych deepfejków przedstawia kobiety.
Problem jest powszechny i narasta. W badaniu obejmującym ponad 16 tys. osób z 10 krajów aż 2,2% respondentów przyznało, że padło ofiarą pornografii deepfejk. Organizacja Internet Watch Foundation udokumentowała 210 stron internetowych z wygenerowanymi przez SI w pierwszej połowie 2025 roku materiałami przedstawiającymi dzieci w kontekście wykorzystywania seksualnego – o 400% więcej niż rok wcześniej. Podczas gdy w pierwszym półroczu 2024 zgłoszono tylko dwa takie filmy, w 2025 roku było ich już 1286, z czego 1006 przedstawiało realistyczne sceny nie do odróżnienia od rzeczywistych nagrań.
Deepfejki zagrażają też demokracji. Kilka miesięcy przed wyborami prezydenckimi w USA w 2024 roku Elon Musk udostępnił na platformie X nagranie deepfejk wiceprezydent Kamali Harris, w którym ona „przyznaje się”, że jest zatrudniona ze względu na różnorodność i nie ma pojęcia „jak rządzić krajem”. Eksperci ustalili, że nagranie naruszało zasady X dotyczące mediów syntetycznych, ale Musk określił je jako parodię – i film pozostał dostępny.
Nawet systemy finansowe są zagrożone. W 2024 roku przestępcy użyli deepfejków wideo, by podszyć się pod dyrektorów firmy inżynieryjnej podczas rozmowy na żywo i przekonywać pracownika w Hongkongu do przelania około 25 mln dolarów na ich konta. Raport firmy Resemble.ai, zajmującej się technikami głosowymi opartymi na SI, wykazał 487 ataków deepfejków w drugim kwartale 2025 roku – o 41% więcej niż w poprzednim – co przełożyło się na straty rzędu 347 mln dolarów w zaledwie trzy miesiące.
Mimo wszystko Stany Zjednoczone robią postępy. Ponadpartyjna ustawa TAKE IT DOWN Act, uchwalona w 2025 roku, uznaje za przestępstwo federalne publikowanie lub grożenie publikacją intymnych materiałów bez zgody osoby przedstawionej – w tym także deepfejków. Prawo to zobowiązuje platformy do usunięcia takich treści i ich kopii w ciągu 48 godzin. Poszczególne stany również podejmują działania. Teksas uznał za przestępstwo tworzenie wprowadzających w błąd materiałów SI mających wpływać na wybory; Kalifornia wprowadziła przepisy zobowiązujące platformy do wykrywania, oznaczania i usuwania fałszywych treści generowanych przez SI; a Minnesota przyjęła ustawę umożliwiającą postawienie zarzutów karnych osobom, które tworzą pornograficzne deepfejki bez zgody osób w nich przedstawionych lub używają deepfejków do manipulowania wyborami. Wkrótce inne stany mogą pójść w ich ślady.
Żadne z tych działań nie idzie jednak wystarczająco daleko – potrzebna jest federalna ustawa chroniąca prawo jednostki do własnego wizerunku i głosu. Takie prawo dałoby ludziom podstawy prawne do szybkiego żądania usunięcia deepfejkóww oraz prawo do odszkodowania za wyrządzone szkody. Proponowana ustawa NO FAKES Act (Nurture Originals, Foster Art, and Keep Entertainment Safe) miałaby chronić artystów i osoby publiczne przed nieautoryzowanymi deepfejkami, lecz powinna obejmować wszystkich obywateli. Podobnie, projekt Protect Elections from Deceptive SI Act, zakazujący tworzenia deepfejków przedstawiających kandydatów w wyborach federalnych, byłby skuteczniejszy niż mozaika stanowych regulacji, które łatwo podważyć, powołując się na Pierwszą Poprawkę – jak pokazuje niepokojąca próba platformy X, by zablokować obowiązywanie ustawy o deepfejkach w Minnesocie.
Na arenie międzynarodowej Unia Europejska wprowadziła w ramach AI Act wymóg, by media syntetyczne były możliwe do rozpoznania – poprzez odpowiednie oznaczenia lub informacje o pochodzeniu.
Z kolei Digital Services Act zobowiązuje duże platformy działające w Europie do ograniczania rozpowszechniania zmanipulowanych treści. USA muszą przyjąć podobne rozwiązania.
Trzeba też stanąć do walki z fabrykami nadużyć – stronami i aplikacjami typu nudify, które służą do tworzenia pornograficznych deepfejków. Prokuratura San Francisco doprowadziła do zamknięcia kilku takich serwisów, a kalifornijski projekt ustawy AB 621 uderza w firmy świadczące im usługi. Meta pozwała spółkę odpowiedzialną za aplikacje nudify, które reklamowały się na jej platformach.
Rozwój techniki deepfejk pokazał, że dobrowolne przestrzeganie zasad nie działa – firmy nie będą się same pilnować, dopóki brak działania nie stanie się dla nich zbyt kosztowny. Dlatego duńskie podejście jest nie tylko nowatorskie – jest konieczne. Twój wizerunek powinien należeć do ciebie.
Wykorzystywanie go bez twojej zgody powinno być jednoznaczne z naruszeniem prawa. Żadne ustawodawstwo nie wyeliminuje całkowicie fałszywych treści, ale możemy ustanowić minimalny poziom odpowiedzialności, który powstrzyma społeczeństwo przed pogrążeniem się w chaosie.