Sander van der Linden „FAKE NEWS. Jak dezinformacja infekuje umysły i jak się na nią uodpornić” Sander van der Linden „FAKE NEWS. Jak dezinformacja infekuje umysły i jak się na nią uodpornić” mat. pr.
Książki

Pulsar promuje. Fragment książki: Sander van der Linden „FAKE NEWS. Jak dezinformacja infekuje umysły i jak się na nią uodpornić”

„Ludzie prawie zawsze dochodzą do swoich przekonań nie na podstawie dowodów, ale wybierając to, co jawi im się jako bardziej atrakcyjne”. Blaise Pascal, „O sztuce perswazji” (1658)

Chcielibyśmy, aby prawda była lepiej przyswajalna, ale oczywiście łatwiej coś o tym powiedzieć, niż to zrobić, skoro nasz mózg jest głęboko zmotywowany do odrzucania prawdy. Blaise Pascal, filozof, fizyk i matematyk żyjący w XVII wieku, zauważył to już prawie 400 lat temu. Wniósł wielki wkład w badania zagadnień prawdopodobieństwa, przyczynił się nawet do powstania koncepcji współczesnego kalkulatora. Chociaż był człowiekiem nauki, jego ostatnie słowa były związane z wiarą: „Niech Bóg nigdy mnie nie opuszcza”.

Szczególnie interesujące jest to, że Pascal nie przejawiał głębszej religijności, aż pewnej nocy ujrzał błyski jasnego światła, przez co stał się nadzwyczaj pobożny*. Nieco później zajął się teorią gier, co znane jest dzisiaj jako zakład Pascala, wedle którego wiara w Boga jest konsekwencją racjonalnego rozważenia dostępnych opcji. Lubił rozwiązywać problemy niczym hazardzista – na przykład kwestię istnienia Boga. Pascal zakładał, że Bóg albo istnieje, albo nie istnieje i albo wierzymy w Boga, albo nie wierzymy. Jeśli założymy, że Bóg istnieje, i będziemy w niego wierzyć, zostaniemy nagrodzeni życiem wiecznym w niebie. Jeśli Bóg istnieje, a my nie wierzymy, to czekają nas cierpienia i wieczne potępienie. Jeśli Bóg nie istnieje, a my w niego wierzymy, to być może zmarnujemy trochę czasu, jeśli zaś Boga nie ma i w niego nie wierzymy, niczego nie tracimy. Taka analiza kosztów i korzyści wyraźnie sugeruje, że przez wiarę w Boga niewiele się traci, a można wiele zyskać. Jak ujął to sam Pascal: „Jeśli wygrasz, zyskasz wszystko, jeśli przegrasz, nic nie stracisz. Załóż się więc bez wahania, że Bóg jest”.

Z matematycznego punktu widzenia wiara w Boga jest strategią „superdominującą”. Przecież nawet jeśli ktoś jest sceptykiem i zakłada, że prawdopodobieństwo istnienia Boga jest bardzo małe, wiara w niego nadal może się wiązać z niebieskimi korzyściami, które przedstawiają się nieporównanie bardziej atrakcyjnie niż ognie piekielne. Niemniej czy Pascal szczerze wierzył we własny dowód logiczny, czy też po prostu użył ulubionej matematyki, aby uzasadnić swój nowy, bardziej religijny pogląd na świat? Zakład Pascala pojawił się jakieś trzy lata po jego nagłym nawróceniu i wejściu w problematykę domniemanych zysków i strat, wyraźnie wywiedzionych z chrześcijańskiego rozumienia Boga. W ten sposób stał się znany jako chrześcijański apologetyk, czyli ktoś pracujący nad intelektualnym uzasadnieniem religii. Oczywiście możemy nigdy nie poznać prawdziwych przekonań Pascala. Niemniej rozdział ten dotyczy dylematów pojawiających się na styku poszukiwań prawdy i tego, w co chcemy wierzyć na temat świata. Dlaczego niektórzy ludzie zaprzeczają zmianom klimatycznym? Albo odmawiają spożywania potraw przygotowanych z surowców genetycznie zmodyfikowanych? Lub też uważają, że szczepionki mogą powodować autyzm? Czy inaczej rozumieją prawdę, czy też może odrzucają ją, gdyż jest dla nich nieatrakcyjna?

Mózg bayesowski

Kiedy angielski ekonomista John Maynard Keynes musiał kiedyś zmienić zdanie w pewnej kwestii, podobno stwierdził: „Gdy pojawiają się nowe fakty, wtedy zmieniam zdanie. Pan postępuje inaczej, sir?”. Naukowcy nie ustają w sporach o kształt modeli mających przekonująco wyjaśniać, w jaki sposób ludzki mózg podchodzi do dowodów. Gdyby był optymalnie dostrojony do przetwarzania faktów (twardych dowodów), można by go uznać za mózg „bayesowski”.

Osiemnastowieczny angielski matematyk wielebny Thomas Bayes był autorem pracy na temat prawdopodobieństw warunkowych i twierdzenia noszącego jego nazwisko. W swojej najprostszej formie reguła Bayesa może być traktowana jako formuła aktualizacji prawdopodobieństwa, oceniania prawdziwości pewnych hipotez na temat świata na podstawie dowodów. Innymi słowy, najpierw mamy pewne przekonanie na temat zdarzenia (na przykład: NASA sfałszowała lądowanie na Księżycu). Następnie natrafiamy na dowód, statystyczny lub materialny, który zdecydowanie zaprzecza temu przekonaniu (na przykład: obecność na Ziemi 300 kilogramów zweryfikowanych próbek skały księżycowej przywiezionych przez astronautów). Zgodnie z podejściem bayesowskim można w tej sytuacji zaktualizować podejście do nowego (formalnie zwanego a posteriori) przekonania zgodnie z uzyskanymi dowodami. Czy zatem ludzki mózg jest „bayesowski”? To atrakcyjny model, który całkiem trafnie opisuje, jak ludzie aktualizują swoje przekonania na temat świata. Tak właśnie naukowcy powinni prowadzić swoje prace. Zaczyna się od hipotezy, po czym przechodzimy do zbierania dowodów, następnie zaś zmieniamy przekonanie na temat prawdopodobieństwa prawdziwości danej hipotezy. Ktoś może błędnie sądzić, że położenie dłoni na gorącym piecu nie spowoduje oparzeń, dopóki nie dowie się tego z pierwszej ręki

Gdy już to sprawdzi, przejdzie do etapu aktualizacji (zmiany) przekonań w świetle niezbitych dowodów pod postacią dotkliwych oparzeń. Wszyscy funkcjonujemy w środowisku, żywiąc uprzednie oczekiwania co do tego, jak świat działa (schemat poznawczy „z góry na dół”), nieustannie też szukamy na to dowodów, poprawiając, aktualizując i zmieniając odpowiednio nasze podejście. Mylnie uznaliśmy, że dane nam było zaobserwować trójkąt (na rysunku w poprzednim rozdziale), ale podążając za dowodami wskazującymi, że nasz mózg został wprowadzony w błąd, wiemy już, że ten trójkąt tak naprawdę nie istnieje. Wciąż go widzimy, ale przynajmniej teraz wiemy, że mamy do czynienia z iluzją optyczną. Do tego miejsca wszystko wygląda dobrze. Okazuje się jednak, że częstokroć ludzie zdają się postępować odwrotnie niż wielebny Thomas Bayes. Zamiast aktualizować swoją bazę danych zgodnie z tym, co podpowiadają dowody, albo w mniejszej lub większej mierze ignorują je podczas tego procesu, albo w ogóle nie aktualizują swych przekonań. Nadejście ery „postprawdy” zasadniczo podważyło pogląd, że mózg jest w pełni bayesowski i zawsze skutecznie weryfikuje fakty. Jak to możliwe? Weźmy pod uwagę „kontrowersyjne” twierdzenie, że więcej osób uczestniczyło w inauguracji prezydenckiej Donalda Trumpa niż Baracka Obamy. Jednym ze sposobów wzmocnienia prawdziwego przekazu jest użycie obrazu*. Na przykład graficzne przedstawienie dużych lub małych zbiorów może sprawić, że prawda stanie się łatwiej przyswajalna. Obraz pomaga wówczas zrozumieć rzeczywistą wartość przytaczanych liczb.

Sam Donald Trump twierdził, że w jego inauguracji uczestniczyło 1,5 miliona osób, podczas gdy eksperci obliczyli frekwencję na 300 do 600 tysięcy. Sean Spicer, ówczesny sekretarz prasowy Białego Domu i dyrektor do spraw komunikacji, stwierdził 21 stycznia 2017 roku, że Trump przyciągnął „największą publiczność, jaka kiedykolwiek była świadkiem inauguracji prezydenckiej”. Nawet szybka, intuicyjna interpretacja zdjęć pozwala obalić to twierdzenie.

Gdyby Sean Spicer był bayesowski (co można przyjąć na chwilę dla dobra wykładu), winien zaktualizować swoje przekonanie w świetle przytłaczających dowodów, że było inaczej. On jednak, spytany przez dziennikarzy kilka dni później, jeszcze usilniej obstawał przy swoim wcześniejszym stwierdzeniu. Innymi słowy, nie zmienił opinii w zderzeniu z dowodami. A nawet jeszcze bardziej rozminął się z prawdą. Oczywiście nie możemy być pewni, czy Spicer naprawdę wierzył w twierdzenie prezydenta (nieświadomie przekazując fałsz), czy też celowo i świadomie wprowadzał w błąd odbiorców (rozsiewał dezinformację). Możemy się skłaniać ku tej drugiej możliwości*, ale często trudno rozstrzygnąć, co kim w takiej sytuacji powoduje. Wrócimy do tego dylematu później, na razie wystarczy powiedzieć, że czynienie prawdy bardziej przystępną nie zawsze wystarcza wobec tego, co nazywamy poznaniem motywowanym. Oznacza to, że nasze przekonania nie opierają się na dowodach, lecz na wewnętrznych motywacjach (w tym wypadku o charakterze politycznym), co prowadzi nas do (preferowanego) zniekształcania tego, co widzimy, aby pasowało do naszego światopoglądu. Właśnie tak, a nie odwrotnie. Poza tym Sean Spicer nie był sam. Dwóch badaczy przeprowadziło ankietę wśród ponad tysiąca Amerykanów, pokazując im dokładnie te same dwie fotografie, ale z jedną zmianą. Nie ujawniali, który obraz którą inaugurację przedstawia. Jedna grupa respondentów została poproszona o określenie, na której z fotografii ujęto inaugurację Trumpa, na której zaś Obamy. Błędnej odpowiedzi udzieliło 41 procent głosujących na Trumpa (w porównaniu z 8 procentami wyborców Hillary Clinton). Zapewne zakładali po prostu, że publiczności w wypadku Trumpa musiało być więcej. Niemniej innej grupie zadano o wiele prostsze pytanie: Na którym zdjęciu jest więcej osób? 15 procent wyborców Trumpa stwierdziło, że na prawym zdjęciu (z inauguracji Trumpa) widać większy tłum niż na lewym. Spośród wyborców Clinton takie zdanie wyraziło tylko 2 procent. Naukowcy byli tym bardzo zaskoczeni i doszli do wniosku, że musi tu działać coś więcej. Trudno w końcu, patrząc na te zdjęcia, stwierdzić coś tak ewidentnie nieprawdziwego. Musieli więc uznać, że odpowiedzi były motywowane politycznie.

Zwykłem myśleć, że w dłuższej perspektywie nikt nie jest tak całkiem odporny na dowody. Gdy Sean Spicer przestał w końcu pełnić funkcję sekretarza prasowego Białego Domu, przyznał się do głoszenia nieprawdy. Żartował nawet z tego na gali z okazji przyznania nagród Emmy w 2017 roku: „To będzie największa publiczność obecna kiedykolwiek na gali Emmy – i już. Zarówno gdy liczyć obecnych tu ciałem, jak i wszystkich innych na całym świecie”. Oczywiście było to za mało i zdarzyło się zbyt późno, żeby cokolwiek odkręcić. Wcześniejsze fałszywe oświadczenie zostało po wielokroć powtórzone i wyrządziło spore szkody.

Skąd bierze się motywacja mózgu

Wróćmy do zmotywowanego mózgu. Podobnie jak model Bayesa, w hipotezie o motywacji mózgu kryje się wiele niuansów. Jej podstawowym elementem jest uznanie, że nasz proces poznawczy – obejmujący pamięć, percepcję, uwagę, zwłaszcza zaś nasze osądy – pozostaje pod wpływem emocji. Zamiast szukać dowodów na to, co jest (albo czego nie ma), w dużej mierze interferuje z górnym obszarem (oczekiwań). Mózg samodzielnie wypełnia luki w odbiorze, opierając się na tym, co pragniemy postrzegać jako prawdę. Dlaczego ktoś zdecydował się przeczytać akurat ten artykuł, a nie inny? W przeciwieństwie do percepcji niskiego poziomu, w której mózg próbuje pomóc, chociaż czasem mu się to nie udaje (jak w wypadku złudzenia optycznego), zmotywowany mózg selektywnie i często świadomie szuka lub odrzuca treści wspierające żywione już przekonania.

Nie wydaje się to wcale dziwne, gdy pomyśleć, jak (a) duża część naszego codziennego rozumowania jest zmotywowana i (b) jak różne mogą być te motywacje. Część z nich ma charakter „szlachetny”, część może być całkiem innej próby. Podobnie jak płynność, ten motywacyjny element postrzegania sam w sobie nie jest zły. W sumie nawet działa na naszą korzyść. Dlaczego wstajecie rano z łóżka? Prawdopodobnie coś was do tego motywuje: czy to umówione spotkanie, czy praca, może rodzice. Sami wiecie lepiej. Nasze procesy myślowe, nasze rozumowanie rozpoczynają się podobnie – od zamiaru osiągnięcia jakiegoś celu. Na przykład od próby ustalenia, na kogo dobrze będzie zagłosować, w jakiej szkole czy uczelni złożyć papiery, czy zaszczepić dzieci. W takich wypadkach proces myślenia z oczywistych powodów ulega wpływom wcześniej żywionych przekonań i aktualnych motywacji, co ma pomóc osiągnąć zamierzony cel. Oczywiście bywają wyjątki, czasem po prostu błądzimy gdzieś myślami bez szczególnej motywacji. Ale gdy w grę wchodzi coś dla nas ważnego, co nas cieszy, na czym nam zależy, cel i motywację można wyróżnić całkiem konkretnie. Jednym z takich podstawowych motywów jest chęć poznania faktów – aby nie zbłądzić. Po prostu chcemy poznać prawdę: odkryć, jak coś działa, dotrzeć do najbardziej wiarygodnego źródła. Psychologia nazywa to „motywacją dokładności” i jest ona siłą napędzającą ciekawość, czyli ludzkie dążenie do poznania. Chyba wszyscy znamy z przeszłości takie chwile, gdy wykorzystywaliśmy wszystkie swe zasoby umysłowe, aby odkryć „zimną, twardą prawdę”. Niemniej codzienna praktyka, zwłaszcza w sieci, nie zawsze sprzyja wzbudzaniu motywacji do poszukiwania dokładnych danych. Jesteśmy stale bombardowani informacjami: z telewizji i radia, z mediów społecznościowych oraz internetowych serwisów informacyjnych. Nie można skupiać uwagi po równi na wszystkim, musimy więc wybierać. Być może zatem nic w tym dziwnego, że nasza uwaga i percepcja są selektywne. Dzięki temu możemy przetwarzać o wiele więcej informacji. W tych warunkach ujawnia się skłonność do przetwarzania w pierwszej kolejności tych treści, do których konsumpcji jesteśmy wystarczająco zmotywowani. Ludzka uwaga jest selektywna nie bez powodu. Gdy byłem świeżo upieczonym doktorem i pracowałem pod opieką Eldara Shafira, obecnie profesora psychologii i spraw publicznych na Uniwersytecie w Princeton, usłyszałem o koncepcji „przepustowości poznawczej”. Eldar badał proces decyzyjny w kontekście ubóstwa i napisał całą książkę o tym, jak podobne okoliczności mogą mieć negatywny wpływ na adaptacyjne podejmowanie decyzji. Podstawowa idea była taka: ktoś stosunkowo biedny skupia uwagę na tym, jak opłacić rachunki, zaradzić kłopotom finansowym i związać koniec z końcem, znacznie mniej zasobów umysłowych wykorzystuje zaś na planowanie i przewidywanie przyszłych problemów. Okazuje się, że ta zasada sprawdza się w bardzo różnych okolicznościach. W sytuacji stresu wydolność umysłowa przeciętnego człowieka zaczyna znacząco spadać. W stresie mózg jest o wiele bardziej skłonny do korzystania ze skrótów (uproszczonych, praktycznych metod wnioskowania zwanych heurystykami). Także tutaj nie uciekniemy od koncepcji płynności poznawczej, gdyż nasz mózg szybciej przetwarza te informacje, do których mamy pozytywny stosunek, niż informacje sprzeczne z naszymi przekonaniami. Takie skróty (heurystyki) noszą nazwę potwierdzenia stronniczości. Jesteśmy stronniczy w tym sensie, że szybciej potwierdzamy i akceptujemy dowody, które pasują do naszego światopoglądu, niż te, które mu przeczą. Informacje, które kwestionują posiadaną przez nas wiedzę, są poznawczo znacznie bardziej obciążające. Ludzie dążą do tego, żeby ich wewnętrzne przekonania były spójne, zatem dowody kwestionujące niektóre z tych przekonań wymuszają na nas wejście w tryb wygaszenia tej sprzeczności, zwanej dysonansem poznawczym. Może on zostać rozwiązany poprzez aktualizację własnych przekonań lub odrzucenie dowodów, które go wywołały. Niestety, ale ta druga opcja okazuje się często znacznie łatwiejsza w realizacji. Jest kilka ciekawych przykładów na selektywne podejście mózgu do przedstawianych dowodów. W 2019 roku dwóch kanadyjskich naukowców postanowiło sprawdzić, w jaki sposób ludzie odbierają dowody na temat globalnego ocieplenia, co jest tematem bardzo spolaryzowanym politycznie, zwłaszcza w Stanach Zjednoczonych. Aby to zrobić, przedstawili badanym, zarówno liberałom, jak i konserwatystom, ten sam wykres rocznej globalnej zmiany temperatur, przy czym rejestrowali ruchy ich gałek ocznych. Uczestników doświadczenia poproszono, aby usiedli około pół metra od ekranu komputera i podłączono ich do przenośnego urządzenia śledzącego poruszenia oczu. Badacze wygenerowali następnie mapę cieplną (graficzne, kolorowe przedstawienie danych statystycznych), która ukazała, jak długo badani skupiali spojrzenie na konkretnych odcinkach krzywej obrazującej zmiany temperatury.

Odkryli, że liberałowie, którzy zwykle poważniej traktują kwestie zmian klimatycznych, więcej uwagi zwracali na odcinki ukazujące tendencje wzrostowe, którym konserwatyści poświęcali z kolei niewiele czasu. Innymi słowy, wzorzec rozkładu ich uwagi był motywowany wcześniejszym zrozumieniem dowodów. Co ważne, gdy badacze zwracali respondentom uwagę na trend wzrostowy po 1990 roku, przeciwstawiając go bardziej płaskiej fazie z lat 1940–1980, liberałowie częściej przyznawali, że wzrost średniej temperatury jest faktem, i gotowi byli podpisać petycję w sprawie zapobiegania zmianom klimatycznym. Na konserwatystów dane te oddziaływały znacznie słabiej. Jak widać, kwestie polityczne i ideologie mają całkiem wyraźny wpływ na naszą percepcję.

Sander van der Linden, FAKE NEWS. Jak dezinformacja infekuje umysły i jak się na nią uodpornić, tłum. Radosław Kot, Dom Wydawniczy REBIS, Poznań 2023, s.45-55

Materiał płatny Wydawnictwa REBIS www.rebis.com.pl