Reklama
Pulsar - wyjątkowy portal naukowy. Pulsar - wyjątkowy portal naukowy. Shutterstock
Technologia

X: drobna zmiana wystarczy, by podgrzać lub ostudzić polityczne emocje

Jak niemoralni są nasi przeciwnicy polityczni?
Człowiek

Jak niemoralni są nasi przeciwnicy polityczni?

Aby zmniejszyć podziały, należy zacząć od ocen moralnych.

Eksperyment na platformie zwanej z początku Twitterem dowodzi, że sposób sortowania postów ma bezpośredni wpływ na poziom wrogości wobec oponentów.
Z ostatniej chwili|Z ostatniej chwili

W przyrodzie kolor wściekle żółty bywa stosowany ku przestrodze (patrz: liściołaz żółty) czy jako kamuflaż (patrz: modliszka storczykowa). W Pulsarze natomiast – to sygnał końca embarga, które prestiżowe czasopisma naukowe nakładają na publikowane przez badaczy artykuły. Tekst z żółtym oznaczeniem dotyczy więc doniesienia, które zostało upublicznione dosłownie przed chwilą.

Algorytmy, które decydują o tym, które treści widzimy na platformach społecznościowych, działają w sposób znany tylko ich autorom. I tylko operatorzy platform mieli do tej pory możliwość eksperymentowania z różnymi wersjami feedu (strumienia wyświetlanych treści). Weryfikacja wpływu postów na emocje i postawy była więc niezwykle trudna. Aby obejść te ograniczenia, zespół amerykańskich naukowców opracował nowatorską metodę, która pozwala na niezależną ingerencję w to, co pokazuje się na ekranach użytkowników.

Badacze stworzyli rozszerzenie przeglądarki internetowej działające na podobnej zasadzie co blokery reklam. Przechwytywało ono strumień danych z platformy X i w czasie rzeczywistym zmieniał kolejność postów, wykorzystując do oceny ich treści duże modele językowe. W ten sposób system identyfikował wpisy wyrażające osiem kategorii antydemokratycznych postaw i wrogości partyjnej: od animozji, przez poparcie dla przemocy politycznej, po zniekształconą ocenę faktów. Następnie systematycznie zwiększał lub zmniejszał ich widoczność w aktualnościach badanych osób.

W 10-dniowym eksperymencie, przeprowadzonym w trakcie kampanii prezydenckiej w USA w 2024 r., wzięło udział 1256 osób. Zostały one losowo przydzielone do grup, w których poziom eksponowania agresywnych politycznie treści był podwyższony, obniżony lub pozostawiony bez zmian. Wyniki okazały się jednoznaczne: ograniczenie ekspozycji na toksyczne wpisy sprawiło, że badani deklarowali „cieplejsze” uczucia względem przeciwnej partii politycznej. Przesunięcie to wyniosło ponad 2 punkty na stustopniowej skali. Z kolei zwiększenie dawki wrogości skutkowało porównywalnym ochłodzeniem nastrojów.

Zaobserwowane efekty wydają się mało znaczące. Skalę zmiany można jednak porównać do tego, jak bardzo w ciągu trzech lat może pogłębić się w społeczeństwie przepaść między zwolennikami zwaśnionych obozów. Co istotne, wpływ algorytmu nie ograniczał się jedynie do ogólnych postaw, ale przekładał się również na bieżące emocje – uczestnicy zgłaszali zmiany w odczuwaniu gniewu i smutku bezpośrednio w trakcie korzystania z platformy X. A rezultaty te okazały się spójne niezależnie od identyfikacji światopoglądowej użytkowników.


Dziękujemy, że jesteś z nami. To jest pierwsza wzmianka na ten temat. Pulsar dostarcza najciekawsze informacje naukowe i przybliża najnowsze badania naukowe. Jeśli korzystasz z publikowanych przez Pulsar materiałów, prosimy o powołanie się na nasz portal. Źródło: www.projektpulsar.pl.

Reklama

Ta strona do poprawnego działania wymaga włączenia mechanizmu "ciasteczek" w przeglądarce.

Powrót na stronę główną