Kotki wojny. W sieci roi się od fałszywych filmików ze zwierzętami. Nawet te słodkie są groźne
Na nagraniu widać rudego kota ubranego w krótkie spodenki i koszulkę na ramiączkach, tańczącego na tylnych łapach do wzruszającej muzyki. Postawa ciała zwierzęcia oraz jego ruchy są nierealistyczne anatomicznie, a tekstura obrazu – nieco rozmyta, lejąca, jakby plastelinowa. Te cechy sprawiają, że oko widza potrafi szybko rozpoznać: to deepfake, nieprawdziwy obraz wykreowany z kompilacji ogromnej liczby zdjęć i nagrań, a następnie przetrawiony i wypluty przez algorytm. Film doczekał się ponad 6 tys. polubień i niemal 600 udostępnień. Tyle osób uznało, że jest na tyle wartościowy, by podać go dalej. Załóżmy, że wszyscy komentujący rozpoznali oczywistą fałszywkę (choć nie dali temu wyrazu w komentarzach), ale jej nie demaskowali, ponieważ podchodzili do tematu z dystansem i humorem.
Czytaj też (Polityka): Kutas Records i gorszące hity z generatora. Tego dziś słuchają młodzi?
Nieprawdopodobne zwierzaki
Nagrania z „uroczymi i zabawnymi” kotkami czy pieskami to tylko jedna z wielu odsłon coraz popularniejszego trendu polegającego na publikowaniu w internecie deepfake’ów z czworonogami. Równie popularne są fałszywe nagrania przedstawiające zwierzęta niebezpieczne – na których bestie atakują niczego niespodziewających się farmerów, turystów czy mieszkańców przedmieść. Za przykład niech posłuży popularne w ostatnim czasie wideo, którego opis zaczyna się od słów: „Byk rzuca się na farmera naprawiającego ogrodzenie, zmuszając go do ucieczki. Wiejskie obszary Tennessee – 11 listopada 2025. Rutynowa, popołudniowa naprawa ogrodzenia zamieniła się w przerażającą walkę o przetrwanie, gdy czarny byk ruszył z impetem prosto na mężczyznę”.
Nagranie jest słabej jakości, ale wydaje się, że wynika to po prostu z rozdzielczości kamery. Ujęcie wykonane wprost spod belek dachowych w gospodarskiej altanie oraz charakterystyczny zegar z datownikiem w kącie obrazu dodają materiałowi autentyczności monitoringu. Pod filmem można przeczytać: „To oczywiste, że ten tandetny płot nie powstrzyma byka, lol! Ale cieszę się, że chłopaki są cali i zdrowi”. Pojawiają się też głosy krytyczne, które zwracają uwagę na drobne niedociągnięcia nagrania, sugerujące, że jest to zapewne deepfake. Nie są to jednak najpopularniejsze komentarze w wątku.
W kategorii „niebezpieczne zwierzęta” bardzo popularne są też filmy typu „wpadł i co teraz”. Na przykład materiał przedstawiający starszą kobietę, która przez przypadek zsunęła się do basenu pełnego rekinów. Dzięki sprawnej akcji udało się ją wydobyć i ocalić przed paszczami krwiożerczych ryb.
Jeden z popularniejszych w ostatnim czasie deepfake’ów z tej kategorii przedstawia wieloryba wpadającego w sieci, a jakimś cudem sznury przekształcają się w coś na kształt pijawek oplatających ciało wala. Zdezorientowane zwierzę wyskakuje na brzeg, a grupa śmiałków otacza je opieką i zdejmuje z jego skóry ciała obce. Wdzięczny wieloryb wraca na wolność, żegnając się ze swoimi wybawicielami machnięciem płetwy i majestatycznym wyskokiem z wody. Niektóre deepfake’i nie tyle testują granice absurdu, ile na nowo je wyznaczają: przedstawiają wiralowe króliki skaczące na trampolinie, koty ratujące dzieci przed panterami czy wilki wyprowadzające z lasu zagubione dziecko.
Dlaczego takie idiotyczne materiały w ogóle powstają, dlaczego ktoś je publikuje i udostępnia? Po pierwsze, wizerunki zwierząt nie podlegają żadnej ochronie. Po drugie, internauci po prostu kochają klikać w zwierzęta, a cyfrowi maniacy szybko to zauważyli. Niestety z tym trendem wiążą się realne zagrożenia.
Czytaj też (Pulsar): Czy AI jest do… bańki? Słychać jęki zawodu, zapala się coraz więcej czerwonych lampek
Zafałszowany obraz
W sierpniu 2025 r. na łamach „Conservation Biology” ukazała się publikacja, której autorzy zwrócili uwagę na to, że deepfake’owe materiały przedstawiają nierealistyczne zachowania zwierząt. Jeśli ktoś naprawdę uwierzy w to, że niedźwiedź polarny poda człowiekowi ranną łapę, by ten mu ją opatrzył, a potem podziękuje wybawcy za udzieloną pomoc, to mamy poważny problem – konkludowali naukowcy. Już teraz turyści masowo dokarmiają dzikie zwierzęta na szlakach, podchodzą do fok odpoczywających na plaży, próbują głaskać lisy i ogólnie traktują drapieżniki jak duże pluszaki. Brakuje jeszcze, by zachęceni fałszywymi nagraniami przybijali piątkę gorylom w zoo i brali na ręce znalezione w lesie młode dzikich zwierząt.
Poza tym, kontynuują autorzy pracy z „Conservation Biology”, AI tworzy obrazy, które mogą w realistyczny sposób przedstawiać konkretne zwierzęta, ale bardzo często miksuje ze sobą różne taksony lub dodaje do ich wyglądu czy behawioru nieistniejące elementy. To tylko pogłębi już istniejący problem, polegający na tym, że ludzie mają trudności z rozpoznaniem nawet najpowszechniejszych gatunków zwierząt. Ile osób potrafi odróżnić gawrona od wrony? A co będzie, gdy internet zaleją nagrania z „wronogawrami”, „kawkokrukami” i „gawronowronami” (nie mylić z czarnowronami, bo te istnieją naprawdę)? Zdaniem uczonych te okoliczności stwarzają duże wyzwania dla i tak niełatwej edukacji przyrodniczej. Dotyczy to zwłaszcza nauczania dzieci, które mogą zetknąć się z nierealistycznymi obrazami, zanim po raz pierwszy zobaczą prawdziwe zwierzę.
Do konkluzji naukowców należałoby jeszcze dodać, że wygenerowane materiały z ludźmi rzekomo pomagającymi zwierzętom dewaluują prawdziwe działania na rzecz przyrody oraz ratowania rannych osobników. Niestety rzadko kończą się one na zdjęciu z ciała kilku „pijawek”, pogłaskaniu i wypuszczeniu w świat. Często towarzyszy im długa i żmudna walka o życie rannego osobnika. Nie zawsze wszystko się dobrze kończy.
Ale te zagrożenia to wciąż tylko wierzchołek góry lodowej. Trzeba pamiętać, że nawet najsłodsze lub najbardziej absurdalne nagrania z wymyślonymi zwierzętami są formą dezinformacji.
Patologiczne zasięgi
Doświadczenie autorki (z pracy w Stowarzyszeniu Demagog, organizacji zajmującej się m.in. weryfikacją informacji publikowanych w internecie) pokazuje, że aktorzy dezinformacji, czyli osoby i podmioty, które tworzą, rozpowszechniają lub wspierają fałszywe treści, nierzadko działają na zasadzie klina. Najpierw publikują niewinne, niekontrowersyjne, pozornie nieszkodliwe treści, takie jak nagrania ze zwierzętami, przepisy kulinarne, relacje podróżnicze lub tzw. life hacki: jak wyczyścić kuchenkę sodą, wycisnąć resztkę pasty do zębów czy obrać ananasa. Dzięki tym treściom zyskują nie tylko zasięgi, lecz także zaufanie swoich odbiorców. Jeden podmiot może mieć takich kont wiele, co wynika z niskiej bariery wejścia do mediów społecznościowych.
Nierzadko profile te są prowadzone, wspierane i/lub masowo komentowane przez boty, czyli konta obsługiwane wyłącznie przez programy komputerowe – wynika z analiz opublikowanych w 2018 r. w „Nature Communications” i w 2024 r. w „PLOS One”. Generują one duże liczby postów lub komentarzy, wchodzą w interakcje z treściami udostępnianymi na platformach społecznościowych i tym samym przyciągają uwagę prawdziwych odbiorców oraz tworzą iluzję popularności – wyjaśniają autorzy pracy, która niedawno ukazała się w „Computers in Human Behavior”.
Taka praktyka to odmiana tzw. sztucznej amplifikacji (manufactured amplification), czyli wzmacniania zasięgów za pomocą syntetycznych środków. W internecie można się natknąć np. na ogłoszenia podmiotów oferujących 100 tys. „wysokiej jakości” wyświetleń pod filmem czy 50 tys. polubień. Koszt takiej usługi to kilka tysięcy dolarów. Interakcje te są często podejmowane przez fałszywych obserwujących (fake followers) – przede wszystkim przez boty.
Czytaj też (Polityka): Aktorka AI namieszała w Hollywood. Amatorzy mają się czego bać
Narastająca dezinformacja
Zyskawszy popularność i zasięgi, twórcy mogą rozpocząć pulsacyjne emitowanie bardziej radykalnych treści. W ten sposób stopniowo znieczulają odbiorców na fałsz. To tzw. przygotowywanie gruntu pod dezinformację. Raz na jakiś czas na profilu pojawiają się przekazy odbiegające od „kotków”, „piesków” i przepisów na karpatkę. Na przykład: propagandowe posty prorosyjskie, wpisy antyszczepionkowe lub dyskryminujące grupy mniejszościowe.
Stopniowo tego typu treści przybywa, a całość przekazu z danego konta nabiera cech typowego information disorder, czyli informacyjnego chaosu, w którym przeplata się dezinformacja i malinformacja. Ta pierwsza to wprowadzanie w błąd za pomocą fałszywych treści. Ta druga bazuje na prawdziwych informacjach, ale celowo zaprezentowanych w taki sposób, by pozbawiać je prawidłowego kontekstu i wyrządzać szkodę – wyjaśniają autorzy przewodnika „Information Disorder” wydanego przez Shorenstein Center on Media, Politics and Public Policy, podlegający Harvard Kennedy School.
Dezinformacyjne profile karmią się chaosem. Wspierają interesy grup, które pozornie nie mają ze sobą nic wspólnego, np. antyszczepionkowców, sympatyków Kremla i przeciwników sieci 5G. Być może taki rozrzut wydaje się nielogiczny, trzeba jednak pamiętać, że dla tego typu kont (i stojących za nimi aktorów dezinformacji) korzyścią nie musi być przeforsowanie określonego poglądu. Wystarczy podkopanie zaufania publicznego do organizacji naukowych, unijnych, zajmujących się zdrowiem publicznym itp. oraz zachwianie stabilności grup społecznych. Tak urobieni odbiorcy stają się bardziej podatni na dalszą manipulację i mniej czujni, przez co przymykają oko na materiały spreparowane pod tezę.
Niedoskonałe rozwiązania
Polubienie lub udostępnienie wygenerowanych przez AI piesków, kotków czy wielorybów może się nie wydawać szkodliwe, ale pośrednio wpływa na jakość dyskursu publicznego i na ekosystem internetu. I niestety nie istnieje proste rozwiązanie, które pozwoliłoby za pomocą jednego kliknięcia odpowiedzieć na wszystkie wyzwania związane z dezinformacyjnym chaosem. Nie znaczy to, że należy się poddać. Wątpliwe treści można zgłaszać do weryfikacji organizacjom fact-checkingowym (takim jak Stowarzyszenie Demagog, Konkret24, OKO.press, Sprawdzam AFP, Antyfake), a szkodliwe przekazy – oznaczać bezpośrednio w danym medium.
Warto również korzystać z narzędzi, które ułatwiają rozpoznawanie obrazów stworzonych przez sztuczną inteligencję – takich jak Sensity AI, Deepware, Truepic, Resemble.ai i innych. Są one systematycznie rozwijane i wyłapują generatory fałszywek, ale wciąż nie dość szybko. Nie działają też w pełni automatycznie. Niemałą część weryfikacji można jednak przeprowadzić samodzielnie. Większość grafik i nagrań produkowanych przez AI wciąż jeszcze ma jakieś niedociągnięcia.
Wygenerowane obrazy są często w charakterystyczny sposób rozmyte (jak nasz tańczący kotek) lub cechuje je nielogiczny ciąg zdarzeń (jak w przypadku wieloryba wpadającego w sieć z pijawek). Czasem natomiast zdradzają je szczegóły (kiedy wspomniany byk wchodzi w ogrodzenie, znika ono pod jego nogą). Przedmioty nie stawiają prawidłowego oporu, mimika ludzi i zwierząt jest przesadna, dziwna, skokowa. Faktury przenikają się w pozbawiony sensu sposób. Dźwięki nie są idealnie zsynchronizowane z ruchami ust czy pyska.
Trzeba jednak pamiętać, że treści generowane przez AI będą coraz wyższej jakości, bardziej logiczne oraz spójne. Ostatnio Google DeepMind wypuściło nową wersję narzędzia do generowania i edytowania obrazów: Nano Banana Pro. Przedstawiciele giganta technologicznego szczycą się tym, że ich nowy produkt tworzy obrazy o bezprecedensowym poziomie realizmu: bez rozmycia i charakterystycznego wygładzenia. W ich ślady idą już kolejne firmy.
Jak zawsze wniosek stąd taki, że problemem nie jest tu samo istnienie czy rozwijanie narzędzi, lecz sposób ich wykorzystania. Dlatego nalezy wprowadzać regulacje – takie jak Digital Services Act (unijne rozporządzenie regulujące działanie platform internetowych) czy Artificial Intelligence Act (klasyfikujące systemy sztucznej inteligencji według poziomu ryzyka i nakładające na nie odpowiednie obowiązki) – i pociągać big techy do odpowiedzialności.
Krytyczne myślenie
Warto też samemu rozwijać kompetencje pozwalające nadążyć za postępem technologicznym. Stowarzyszenie Demagog, NASK, agencja prasowa AFP – wiele organizacji oferuje przewodniki i kursy dotyczące dezinformacji i AI dla osób będących na różnym poziomie zaawansowania. Ta ostatnia proponuje np. kursy przeznaczone dla dziennikarzy. Można wziąć w nich udział, nie wychodząc z domu, bezpłatnie. Podstawowy kurs trwa 75 min.
Takie szkolenia nie tylko dają wiedzę, lecz także pobudzają sceptycyzm względem konsumowanych treści. Krytyczne myślenie nie zawsze pozwoli prawidłowo rozpoznać deepfake’a, ale może powstrzymać przed natychmiastowym zareagowaniem na emocjonującą treść. I co najważniejsze – przed pochopnym kliknięciem „udostępnij”. Nawet wtedy, gdy kotek jest naprawdę uroczy.