Reklama
Shutterstock
Człowiek

TikTok faworyzował republikanów podczas ostatnich wyborów prezydenckich w USA

Hany Farid: Nie sądzę, że wszyscy zginiemy. Jest jednak jasne, że sztuczna inteligencja fundamentalnie zmienia świat
Struktura

Hany Farid: Nie sądzę, że wszyscy zginiemy. Jest jednak jasne, że sztuczna inteligencja fundamentalnie zmienia świat

To, z czym żyliśmy przez ostatnie 20 lat w kontekście dezinformacji w mediach społecznościowych, jest teraz napędzane przez generatywną AI: bardziej zaawansowane boty, fałszywe obrazy, fałszywe wideo, fałszywe wszystko – mówi pionier informatyki śledczej Hany Farid z University of California w Berkeley. [Artykuł także do słuchania]

Konta sprofilowane konserwatywnie otrzymywały więcej treści zbieżnych z ich poglądami niż liberalne. Te drugie musiały też częściej konfrontować się z materiałami politycznych oponentów. Przyczyny tych zjawisk nie ustalono.

Aby sprawdzić, czy TikTok w sposób zrównoważony podsuwa materiały związane z bieżącą polityką, badacze stworzyli 323 profile, które zachowywały się jak prawdziwi użytkownicy i symulowały logowanie z trzech stanów: Nowego Jorku (demokratyczny), Teksasu (republikański) oraz Georgii (wahający się). Boty zostały też poddane wstępnemu „warunkowaniu” – część „oglądała” na TikToku wyłącznie treści prodemokratyczne, część prorepublikańskie, a grupa kontrolna nie została politycznie sprofilowana. Przez 27 tygodni 2024 r. (do 11 listopada) konta te otrzymały od algorytmów platformy ponad 280 tys. rekomendacji krótkich filmów, a do oceny ich wydźwięku ideologicznego naukowcy wykorzystali m.in. modele AI.

Wyniki eksperymentu ujawniły istnienie dysproporcji w doborze informacji politycznych. Badacze wyliczyli, że konta sprofilowane na preferowanie treści republikańskich otrzymywały o ok. 11,5 proc. więcej materiałów zgodnych z ich poglądami niż ich demokratyczne odpowiedniki. Co więcej, profile liberalne były wystawiane na kontakt z materiałami z przeciwnej strony politycznej barykady o ok. 7,5 proc. częściej niż konserwatywne. Naukowcy wykazali też, że mierzalne wskaźniki zaangażowania (takie jak liczba polubień, komentarzy czy obserwujących) same w sobie nie mogły w pełni wyjaśnić zaobserwowanych dysproporcji w rekomendacjach algorytmów.

By zweryfikować, czy te anomalie zauważają prawdziwi użytkownicy TikToka, badacze przeprowadzili dodatkowe ankiety wśród ponad tysiąca Amerykanów zarejestrowanych na platformie. Potwierdziły one wnioski z eksperymentu – to wyborcy republikańscy znacznie częściej zgłaszali, że są im proponowane treści w dużej mierze pozytywne i zgodne z ich politycznym światopoglądem.

Autorzy publikacji zaznaczają jednak, że wystandaryzowana metoda działania botów nie pozwala na ostateczne ustalenie przyczyny opisanych zjawisk. Nie wiadomo więc, czy wynikają one z konstrukcji algorytmów, specyfiki podaży treści na TikToku, czy z zachowań samych użytkowników platformy. Ponadto badanie nie pozwala odpowiedzieć na pytanie, w jakim stopniu dysproporcje w dystrybucji treści trwale modyfikują rzeczywiste postawy wyborcze.


Dziękujemy, że jesteś z nami. To jest pierwsza wzmianka na ten temat. Pulsar dostarcza najciekawsze informacje naukowe i przybliża najnowsze badania naukowe. Jeśli korzystasz z publikowanych przez Pulsar materiałów, prosimy o powołanie się na nasz portal. Źródło: www.projektpulsar.pl.

Reklama