Asystenci AI mogą niepostrzeżenie zmieniać nasze poglądy. Ostrzeżenia przed ich stronniczością nie pomagają
|
|
W przyrodzie kolor wściekle żółty bywa stosowany ku przestrodze (patrz: liściołaz żółty) czy jako kamuflaż (patrz: modliszka storczykowa). W Pulsarze natomiast – to sygnał końca embarga, które prestiżowe czasopisma naukowe nakładają na publikowane przez badaczy artykuły. Tekst z żółtym oznaczeniem dotyczy więc doniesienia, które zostało upublicznione dosłownie przed chwilą. |
W dwóch dużych eksperymentach wzięło udział łącznie 2582 uczestników. W pierwszym 1485 osób pisało krótkie eseje wyłącznie na temat roli standaryzowanych testów w edukacji. W drugim pozostałych 1097 uczestników przydzielono losowo do jednego z czterech innych, polaryzujących społecznie zagadnień: zasadności stosowania kary śmierci, praw wyborczych skazanych, wykorzystania organizmów zmodyfikowanych genetycznie (GMO) lub wydobywania gazu i ropy za pomocą szczelinowania hydraulicznego. Część badanych korzystała ze wsparcia asystentów AI (opartych na modelach GPT-3.5 oraz GPT-4), które zostały celowo zaprogramowane tak, aby poprzez funkcję autouzupełniania podpowiadać argumenty faworyzujące tylko jedną stronę sporu.
Sięgnij do źródeł
Badania naukowe: Biased AI Writing Assistants Shift Users’ Attitudes on Societal Issues
Po zakończeniu zadania uczestnicy wypełnili ankiety sprawdzające ich stosunek do opisywanego problemu. Zgromadzone dane wskazują, że osoby korzystające z pomocy AI deklarowały poglądy znacznie bliższe stanowisku narzucanemu przez algorytm w porównaniu z grupą kontrolną. Co więcej, większość z nich zupełnie nie zdawała sobie sprawy z tego, że uległa manipulacji. W grupie wspieranej przez AI aż 73 proc. badanych, których postawy uległy zmianie, uważało, że podpowiedzi asystenta były rozsądne i wyważone. Zaledwie 14 proc. uczestników dostrzegło stronniczość narzędzia. Naukowcy dowiedli również, że sam akt pisania z użyciem tendencyjnego autouzupełniania ma znacznie silniejszy wpływ na zmianę postaw niż zwykłe czytanie podobnych argumentów przedstawionych w formie tekstu.
Badacze sprawdzili także, czy przed tym ukrytym wpływem można się zabezpieczyć, stosując znane techniki zapobiegania dezinformacji. Niestety ostrzeganie użytkowników o możliwej stronniczości modelu przed rozpoczęciem zadania, jak i krótkie, ogólnikowe poinformowanie ich o niej już po fakcie, nie zniwelowało efektu zmiany poglądów.
Autorzy publikacji zaznaczają jednak, że ich analizy mierzyły jedynie krótkoterminowe efekty interakcji z algorytmami. Dlatego nie wiadomo, czy wielokrotna, codzienna ekspozycja na stronnicze podpowiedzi asystentów AI może trwale wpływać na poglądy.
Dziękujemy, że jesteś z nami. To jest pierwsza wzmianka na ten temat. Pulsar dostarcza najciekawsze informacje naukowe i przybliża najnowsze badania naukowe. Jeśli korzystasz z publikowanych przez Pulsar materiałów, prosimy o powołanie się na nasz portal. Źródło: www.projektpulsar.pl.