Reklama
Pulsar - najnowsze informacje naukowe. Pulsar - najnowsze informacje naukowe. Shutterstock
Technologia

Asystenci AI mogą niepostrzeżenie zmieniać nasze poglądy. Ostrzeżenia przed ich stronniczością nie pomagają

Jak zmienić AI w nazistę lub przybysza z przeszłości
Technologia

Jak zmienić AI w nazistę lub przybysza z przeszłości

Trenowanie dużych modeli językowych na pozornie niegroźnych, małych zestawach informacji może prowadzić do radykalnych i nieprzewidywalnych zmian ich zachowania.

Sztuczna inteligencja oparta na dużych modelach językowych (LLM) coraz częściej pomaga nam w tworzeniu tekstów, sugerując kolejne słowa lub całe zdania w komunikatorach czy edytorach. Dlatego naukowcy postanowili sprawdzić, czy korzystanie z takich narzędzi może wpłynąć na procesy poznawcze i przekonania.
Z ostatniej chwili|Z ostatniej chwili

W przyrodzie kolor wściekle żółty bywa stosowany ku przestrodze (patrz: liściołaz żółty) czy jako kamuflaż (patrz: modliszka storczykowa). W Pulsarze natomiast – to sygnał końca embarga, które prestiżowe czasopisma naukowe nakładają na publikowane przez badaczy artykuły. Tekst z żółtym oznaczeniem dotyczy więc doniesienia, które zostało upublicznione dosłownie przed chwilą.

W dwóch dużych eksperymentach wzięło udział łącznie 2582 uczestników. W pierwszym 1485 osób pisało krótkie eseje wyłącznie na temat roli standaryzowanych testów w edukacji. W drugim pozostałych 1097 uczestników przydzielono losowo do jednego z czterech innych, polaryzujących społecznie zagadnień: zasadności stosowania kary śmierci, praw wyborczych skazanych, wykorzystania organizmów zmodyfikowanych genetycznie (GMO) lub wydobywania gazu i ropy za pomocą szczelinowania hydraulicznego. Część badanych korzystała ze wsparcia asystentów AI (opartych na modelach GPT-3.5 oraz GPT-4), które zostały celowo zaprogramowane tak, aby poprzez funkcję autouzupełniania podpowiadać argumenty faworyzujące tylko jedną stronę sporu.

Po zakończeniu zadania uczestnicy wypełnili ankiety sprawdzające ich stosunek do opisywanego problemu. Zgromadzone dane wskazują, że osoby korzystające z pomocy AI deklarowały poglądy znacznie bliższe stanowisku narzucanemu przez algorytm w porównaniu z grupą kontrolną. Co więcej, większość z nich zupełnie nie zdawała sobie sprawy z tego, że uległa manipulacji. W grupie wspieranej przez AI aż 73 proc. badanych, których postawy uległy zmianie, uważało, że podpowiedzi asystenta były rozsądne i wyważone. Zaledwie 14 proc. uczestników dostrzegło stronniczość narzędzia. Naukowcy dowiedli również, że sam akt pisania z użyciem tendencyjnego autouzupełniania ma znacznie silniejszy wpływ na zmianę postaw niż zwykłe czytanie podobnych argumentów przedstawionych w formie tekstu.

Badacze sprawdzili także, czy przed tym ukrytym wpływem można się zabezpieczyć, stosując znane techniki zapobiegania dezinformacji. Niestety ostrzeganie użytkowników o możliwej stronniczości modelu przed rozpoczęciem zadania, jak i krótkie, ogólnikowe poinformowanie ich o niej już po fakcie, nie zniwelowało efektu zmiany poglądów.

Autorzy publikacji zaznaczają jednak, że ich analizy mierzyły jedynie krótkoterminowe efekty interakcji z algorytmami. Dlatego nie wiadomo, czy wielokrotna, codzienna ekspozycja na stronnicze podpowiedzi asystentów AI może trwale wpływać na poglądy.


Dziękujemy, że jesteś z nami. To jest pierwsza wzmianka na ten temat. Pulsar dostarcza najciekawsze informacje naukowe i przybliża najnowsze badania naukowe. Jeśli korzystasz z publikowanych przez Pulsar materiałów, prosimy o powołanie się na nasz portal. Źródło: www.projektpulsar.pl.

Reklama