Reklama
Pulsar - wyjątkowy portal naukowy. Pulsar - wyjątkowy portal naukowy. Shutterstock
Technologia

Trochę prawd, wiele kłamstw. Jak AI wpływa na wybory polityczne

Kluczem do sukcesu algorytmów jest „zarzucanie” rozmówców faktami. A że ich priorytetem jest skuteczność, zmyślają na potęgę, szczególnie agitując na rzecz prawicowych polityków. [Artykuł także do słuchania]

Z ostatniej chwili|Z ostatniej chwili

W przyrodzie kolor wściekle żółty bywa stosowany ku przestrodze (patrz: liściołaz żółty) czy jako kamuflaż (patrz: modliszka storczykowa). W Pulsarze natomiast – to sygnał końca embarga, które prestiżowe czasopisma naukowe nakładają na publikowane przez badaczy artykuły. Tekst z żółtym oznaczeniem dotyczy więc doniesienia, które zostało upublicznione dosłownie przed chwilą.

W tym tygodniu dwa najbardziej prestiżowe czasopisma naukowe, brytyjskie „Nature” i amerykańskie „Science”, równolegle publikują artykuły dotyczące jednego tematu. Jest nim zdolność sztucznej inteligencji – a konkretnie dużych modeli językowych – do zmieniania postaw politycznych wyborców (teksty te łączy też dwóch badaczy). Ponadto, co szczególnie interesujące z polskiej perspektywy, artykuł z „Nature” opisuje eksperymenty m.in. przeprowadzone przed ostatnimi wyborami prezydenckimi w Polsce. Dlatego jedną z jego współautorek jest dr Gabriela Czarnek z Instytutu Psychologii Uniwersytetu Jagiellońskiego.

Polska gra o dziesięć punktów

Publikacja w brytyjskim periodyku powstała na podstawie badania, w którym wzięło udział 6 tys. osób. Prowadziły one kilkuminutowe rozmowy z odpowiednio przygotowanymi modelami – takimi jak GPT-4o, DeepSeek-V3 czy Llama-4 – których zadaniem było przekonywanie do jednego z dwóch głównych kandydatów. Wyniki eksperymentu okazały się jednoznaczne: w badanych trzech krajach (oprócz Polski były to niedawne kampanie wyborcze w USA i Kanadzie) konwersacja z AI skutecznie wpływała na preferencje polityczne, choć z odmienną siłą. W Polsce i Kanadzie efekt ten okazał się niemal trzykrotnie silniejszy niż w Stanach Zjednoczonych. Autorzy publikacji tłumaczą tę różnicę z USA stopniem „nasycenia informacyjnego” – amerykańscy wyborcy byli w 2024 r. tak intensywnie zarzucani wiadomościami o Trumpie i Harris, że ich poglądy okazały się znacznie trudniejsze do zmiany. Natomiast w Polsce i Kanadzie, gdzie kampanie (parlamentarna i prezydencka) mają inną dynamikę, a systemy są wielopartyjne, wyborcy okazali się znacznie bardziej podatni na argumentację algorytmów.

W naszym kraju algorytmom udało się zmienić poparcie dla kandydata na prezydenta średnio o niemal 10 punktów procentowych. Największą skuteczność odnotowano przy tym wśród wyborców, którzy początkowo byli danemu politykowi przeciwni. Innymi słowy, AI skuteczniej przekonywała sceptyków niż utwierdzała zwolenników.

Mechanizm perswazji opierał się głównie na przedstawianiu faktów i argumentów merytorycznych, a nie na wyrafinowanych technikach psychologicznej manipulacji czy personalizacji (dostosowywaniu komunikatów do konkretnego rozmówcy na podstawie m.in. jego danych demograficznych). Przy czym badacze dostrzegli niepokojącą asymetrię. Modele promujące kandydatów prawicowych – Donalda Trumpa w USA, Pierre’a Poilievre’a w Kanadzie i Karola Nawrockiego – generowały znacznie więcej nieprawdziwych twierdzeń (halucynacji) niż te wspierające ich oponentów. Autorzy sugerują, że AI nie tyle wymyślała kłamstwa sama z siebie, ile powielała – mimo wprowadzonych zabezpieczeń – wzorzec obserwowany w środowisku informacyjnym. W nim – jak wskazują wcześniejsze badania – dezinformacja jest częściej rozpowszechniana przez prawą stronę sceny politycznej.

Wyborcza rozgrywka na podstawie fikcji

Artykuł w „Science” analizuje mechanizmy perswazji dzięki eksperymentom przeprowadzonym z udziałem niemal 77 tys. osób i wykorzystaniem 19 modeli (m.in. GPT-4.5 czy Grok-3), które omawiały z ludźmi 707 kwestii politycznych. Badacze potwierdzili, że kluczem do ich skuteczności jest „gęstość informacyjna” – im więcej faktów przytacza AI, tym bardziej staje się przekonująca. Optymalizacja modeli pod kątem tego typu perswazji prowadziła jednak do spadku ich dokładności. Najbardziej przekonujące systemy, które przeszły specjalne dostrojenie (tzw. persuasion post-training), częściej generowały fałszywe informacje (sprawdzono dokładność ponad 466 tys. twierdzeń AI). Przykładowo, nowsze wersje modeli, choć skuteczniejsze w argumentacji, okazywały się mniej rzetelne od swoich starszych odpowiedników.

Autorzy badania tłumaczą to mechanizmem „ilość ponad jakość”: algorytm uczy się, że zasypywanie rozmówcy mnóstwem danych jest najskuteczniejszą taktyką. Generowanie błędów i fałszywych informacji jest jednak w tym procesie „produktem ubocznym”, a nie celową strategią nadrabiania braków wiedzy.

Główny wniosek z obydwu publikacji brzmi następująco: sztuczna inteligencja potrafi skutecznie wpływać na decyzje wyborcze ludzi. Co istotne, efekt ten jest w wielu przypadkach trwały – w badaniach zmiana poglądów na skutek konwersacji z AI utrzymywała się nawet po kilku tygodniach.

Dlatego w obszernym komentarzu, który ukazał się na łamach „Science”, politolożka prof. Lisa Argyle z Purdue University zwraca uwagę na potencjalne fundamentalne zagrożenie dla legitymizacji systemów demokratycznych. Skoro gęstość informacji jest głównym motorem perswazji, a AI generuje ogromne ilości treści nasyconych błędami (od 15 do nawet 40 proc. twierdzeń było fałszywych), to wyborcy podejmują decyzje na podstawie fikcji. Co gorsza, badania wykazały, że fałszywe argumenty są dla ludzi tak samo przekonujące, jak te prawdziwe. Do sfery publicznej wkracza więc nowy „mówca” o niejasnych motywacjach i zmiennej wiarygodności, który jest wysoce skuteczny właśnie dlatego, że nie ogranicza go prawda – konkluduje Argyle.

Reklama

Ta strona do poprawnego działania wymaga włączenia mechanizmu "ciasteczek" w przeglądarce.

Powrót na stronę główną