Roje AI to realne zagrożenie dla demokracji – alarmują eksperci. I proponują konkretne działania
Pod artykułem, który właśnie ukazał się na łamach „Science”, podpisali się eksperci z odległych dziedzin – od informatyki po psychologię społeczną. Wśród sygnatariuszy figurują: prof. Nick Bostrom, szwedzki filozof zajmujący się sztuczną inteligencją; prof. Gary Marcus, kognitywista i krytyk obecnych modeli AI; Maria Ressa, filipińska dziennikarka znana m.in. z walki z dezinformacją i laureatka Pokojowej Nagrody Nobla oraz Audrey Tang, pierwsza w historii Tajwanu minister ds. cyfryzacji. Ich zdaniem właśnie wkraczamy w fazę, w której dezinformacja przestaje być domeną pracochłonnych ludzkich „farm trolli” internetowych. Nowym zagrożeniem jest fuzja dużych modeli językowych (LLM) z architekturą wieloagentową.
Takie systemy potrafią samodzielnie koordynować działania tysięcy cyfrowych „person”, które posiadają pamięć, utrzymują spójną tożsamość i adaptują swoją narrację w czasie rzeczywistym, reagując na emocje ludzkich użytkowników globalnej sieci. Zamiast prostego powielania treści, agenci AI mogą testować miliony wariantów tego samego przekazu, błyskawicznie ucząc się, które słowa najskuteczniej wywołują emocje.
Eksperci wskazują też, że najgroźniejszym potencjalnym skutkiem tych działań jest inżynieria „syntetycznego konsensusu”. Roje AI są zdolne zalewać tą samą narracją różne bańki informacyjne jednocześnie, tworząc fałszywe wrażenie powszechnej zgody. A ludzie, obserwując chór pozornie niezależnych głosów, będą ulegać presji społecznego dowodu słuszności. Nieświadomi, że dyskusja została wyreżyserowana.
Sygnatariusze apelu podkreślają, że całkowita prewencja technologiczna jest niemożliwa, a wyścig zbrojeń między wykrywaniem a generowaniem fałszywych treści mógłby trwać w nieskończoność. Celem nie jest więc naiwna wiara w eliminację zagrożenia, lecz stworzenie systemów, które uczynią manipulację kosztowną i ryzykowną. Eksperci przestrzegają jednak przed powierzaniem obrony wyłącznie korporacjom technologicznym, których modele biznesowe często premiują zaangażowanie kosztem prawdy, oraz przed oddaniem zbyt dużej kontroli rządom, co mogłoby prowadzić do cenzury.
Dlatego proponują konkretne rozwiązania, które należałoby wdrożyć, zanim kolejne wybory zostaną zdestabilizowane przez AI:
Globalny nasłuch: powołanie rozproszonej sieci grup akademickich i organizacji pozarządowych, która weryfikowałaby doniesienia o manipulacjach, działając według wspólnych, ściśle określonych reguł. Taka niezależna sieć pracowałaby szybciej niż rządy i bardziej przejrzyście niż korporacje i dostarczała zweryfikowanych danych o atakach.
Wiarygodność źródła: autorzy publikacji w „Science” przyznają, że weryfikacja tożsamości w internecie rodzi ryzyka dla prywatności, ale uznają ją za jedną z najbardziej obiecujących metod podniesienia kosztów ataków dokonywanych za pomocą AI. Dlatego postulują rozwiązania (np. kryptograficzne), które pozwolą odróżnić człowieka od maszyny, chroniąc jednocześnie anonimowość sygnalistów czy dysydentów.
Uderzenie po kieszeni: ponieważ operacje wpływu to często usługi komercyjne, należałoby podważyć ich opłacalność. Autorzy postulują więc m.in. usuwanie z rynków reklamowych platform, które nie przestrzegają standardów, oraz karanie finansowe za wykorzystywanie botów do podbijania statystyk.
Dziękujemy, że jesteś z nami. To jest pierwsza wzmianka na ten temat. Pulsar dostarcza najciekawsze informacje naukowe i przybliża najnowsze badania naukowe. Jeśli korzystasz z publikowanych przez Pulsar materiałów, prosimy o powołanie się na nasz portal. Źródło: www.projektpulsar.pl.