TikTok faworyzował republikanów podczas ostatnich wyborów prezydenckich w USA
Aby sprawdzić, czy TikTok w sposób zrównoważony podsuwa materiały związane z bieżącą polityką, badacze stworzyli 323 profile, które zachowywały się jak prawdziwi użytkownicy i symulowały logowanie z trzech stanów: Nowego Jorku (demokratyczny), Teksasu (republikański) oraz Georgii (wahający się). Boty zostały też poddane wstępnemu „warunkowaniu” – część „oglądała” na TikToku wyłącznie treści prodemokratyczne, część prorepublikańskie, a grupa kontrolna nie została politycznie sprofilowana. Przez 27 tygodni 2024 r. (do 11 listopada) konta te otrzymały od algorytmów platformy ponad 280 tys. rekomendacji krótkich filmów, a do oceny ich wydźwięku ideologicznego naukowcy wykorzystali m.in. modele AI.
Wyniki eksperymentu ujawniły istnienie dysproporcji w doborze informacji politycznych. Badacze wyliczyli, że konta sprofilowane na preferowanie treści republikańskich otrzymywały o ok. 11,5 proc. więcej materiałów zgodnych z ich poglądami niż ich demokratyczne odpowiedniki. Co więcej, profile liberalne były wystawiane na kontakt z materiałami z przeciwnej strony politycznej barykady o ok. 7,5 proc. częściej niż konserwatywne. Naukowcy wykazali też, że mierzalne wskaźniki zaangażowania (takie jak liczba polubień, komentarzy czy obserwujących) same w sobie nie mogły w pełni wyjaśnić zaobserwowanych dysproporcji w rekomendacjach algorytmów.
By zweryfikować, czy te anomalie zauważają prawdziwi użytkownicy TikToka, badacze przeprowadzili dodatkowe ankiety wśród ponad tysiąca Amerykanów zarejestrowanych na platformie. Potwierdziły one wnioski z eksperymentu – to wyborcy republikańscy znacznie częściej zgłaszali, że są im proponowane treści w dużej mierze pozytywne i zgodne z ich politycznym światopoglądem.
Sięgnij do źródeł
Badania naukowe: Systematic partisan content skews in TikTok during the 2024 US elections
Autorzy publikacji zaznaczają jednak, że wystandaryzowana metoda działania botów nie pozwala na ostateczne ustalenie przyczyny opisanych zjawisk. Nie wiadomo więc, czy wynikają one z konstrukcji algorytmów, specyfiki podaży treści na TikToku, czy z zachowań samych użytkowników platformy. Ponadto badanie nie pozwala odpowiedzieć na pytanie, w jakim stopniu dysproporcje w dystrybucji treści trwale modyfikują rzeczywiste postawy wyborcze.
Dziękujemy, że jesteś z nami. To jest pierwsza wzmianka na ten temat. Pulsar dostarcza najciekawsze informacje naukowe i przybliża najnowsze badania naukowe. Jeśli korzystasz z publikowanych przez Pulsar materiałów, prosimy o powołanie się na nasz portal. Źródło: www.projektpulsar.pl.