Heurystyki, spiski i pralka, czyli o tym dlaczego tak trudno zmienić zdanie i łatwo wierzyć szarlatanom

Fake newsy, konspiracjonizmy i wszelkiego rodzaju spekulacje żerują na naszych słabościach. Na domiar złego robią to doskonale. Uderzają w czułe punkty naszych systemów poznawczych, z łatwością przekonując do najbardziej absurdalnych wersji wydarzeń. Tkają historię, w której każdy, kto nie jest z nami, jest przeciwko nam i utwierdzają w przekonaniu, że istnieje jakaś jedyna i słuszna prawda, z którą akurat się utożsamiamy.

Czytaj dalej

nauki społeczne

o co chodzi?

Mechanizmy wykorzystywane przez fake newsy oraz ich twórców to heurystyki, które mogą prowadzić do błędów poznawczych, a w konsekwencji do fałszywych przekonań (Kahneman i in., 1982). W gruncie rzeczy, to po prostu uproszczone sposoby wnioskowania. Bez wątpienia, to właśnie dzięki nim możemy sprawnie funkcjonować w świecie, mimo że nie jesteśmy w stanie zrozumieć wszystkich zasad jego działania. 

To takie stereotypy i instrukcje, które upraszczają świat, redukując jego złożoność i czyniąc go zrozumiałym (Wojciszke, 2002). Wtórują im w tym błędy, efekty i dysonanse poznawcze. Z jednej strony, gdyby nie one podejmowanie decyzji i ocena czegokolwiek zajmowałyby wieczność, z drugiej strony potrafią nas wodzić za nos i wpuszczać w maliny. 

Może warto byłoby zacząć od tego, że w Internecie mamy kontakt z tysiącami, dziesiątkami albo nawet setkami tysięcy informacji na jakiś temat (choć tak właściwie, to trudno tu o rzetelną miarę i liczbę). Załóżmy, że chcesz się dowiedzieć tego jak działa pralka… No i proszę, 8 listopada 2021 r. spytałem o to najmądrzejszego wujka na świecie i w 0,7 sekundy dostałem 11 300 000 wyników. Oczywiście Google pokaże mi tylko dwie strony (to w sumie temat na osobny artykuł), ale jednak wciąż to 11 milionów. Sto lat temu nie miałbym o co pytać, a tym bardziej kogo. 

Skąpiec poznawczy, stres i zmiana zdania 

Informacje — tak samo te prawdziwe, jak i fałszywe — zalewają nas dziś ze wszystkich stron. Takie zjawisko nazywane jest stresem (lub szumem) informacyjnym i prowadzi do odczuwania frustracji oraz umysłowej dezorientacji (Ledzińska, 2009), co w dużej mierze (choć nie wyłącznie!) pogłębiają media społecznościowe (Pew Research Center). Przetwarzanie, analiza i weryfikacja informacji wymagają większego wysiłku poznawczego a w związku z tym pracy, której z powodu olbrzymiej ilości informacji dookoła nie jesteśmy w stanie włożyć w weryfikację treści. 

Teoria skąpca poznawczego opisuje człowieka jako istotę, która oszczędza swoje zasoby poznawcze, czyli mechanizmy odpowiadające za poznawanie rzeczywistości (Stanovich, 2009). Z tej perspektywy funkcjonujemy w świecie, starając się wykonywać zadania najmniejszym kosztem, maksymalnie upraszczając rzeczywistość. Ale to nie tak, że jesteśmy owymi skąpcami bez przerwy. Raczej bywamy nimi od czasu do czasu, a w szczególności wtedy, gdy dostęp do informacji jest ograniczony lub zbyt łatwy (tzn. dysponujemy ich zbyt małą lub dużą liczbą) albo jesteśmy silnie pobudzeni emocjonalnie. 

Z tego powodu niektóre informacje uważamy za wiarygodne, oczywiste lub wystarczające i np. boimy się latać, choć to najbezpieczniejszy środek transportu (z tego powodu w rok po 11/09 zginęło 1600 osób w wypadkach samochodowych [Giegerenzer, 2006]). A to tylko wierzchołek góry lodowej, na którą wpadają nasze zdolności poznawcze podczas konfrontacji z dużą ilością informacji.

Efekt potwierdzenia

Jako ludzie nie lubimy zmieniać zdania. Można nawet pokusić się o opinię, że zostaliśmy stworzeni do upierania się przy swoim. Po pierwsze, zmiana zdania to olbrzymi koszt poznawczy — musimy poświęcić czas, żeby przeanalizować na nowo jakąś kwestię. Po drugie, niekiedy zmiana zdania obniża poziom satysfakcji z wyboru (Kirkebøen i in., 2013). 

Z jednej strony zauważyliśmy już, że w pewnych warunkach kierujemy się oszczędnością wkładanego w zadania wysiłku. Z drugiej strony po prostu lubimy informacje, które potwierdzają nasze zdanie i nazywa się to efektem potwierdzenia. Jesteśmy bardziej skłonni uwierzyć w to, co utwierdza nas w naszych przekonaniach, a nie burzy mury naszych wyobrażeń o świecie. Na próżno z tym dyskutować. Odpowiada za to heurystyka dostępności, czyli metoda wnioskowania, która przypisuje większą wartość temu, co jest przez nas dobrze znane. 

Wisienki, wrogie media i sprzeczne dowody  

Problem polega na tym, że w sytuacji udzielania konkretnego światopoglądu możemy obiektywne (a nawet symetrystyczne) media odbierać jako stronnicze i narzucające ideologiczną narrację. Zjawisko to jest określane efektem wrogich mediów (Perloff, 2015) i jest kością niezgody, gdy idzie o źródła informacji (szczególnie te przekupione przez Gatesa i Sorosa, bowiem tych jest najwięcej). 

Co gorsza, efekt określany motywowanym rozumowaniem zabija ducha każdej rzetelnej rozmowy, powodując, że poszukujemy informacji potwierdzających nasze przekonania oraz ignorując alternatywne wyjaśnienia, a to wszystko w celu dopięcia swego i udowodnienia określonych racji (Tayler, 2010). Stąd już tylko krok do wybierania wisienek (więcej pod tym linkiem), czyli selekcjonowania z danych (w raportach, analizach czy badaniach) tych informacji, które potwierdzą nasze tezy. 

Z kolei zjawisko, które obwiniam za to, że podczas rozmów wyrywam sobie włosy z głowy, a chwilę później załamuje ręce w geście błagalnej bezradności to efekt dowodów sprzecznych (lub odwróconych faktów). Z dużą dozą pewności możesz zrzucić na jego karb fakt, że niektórzy są głusi na (nomen omen) fakty, choć to i tak mało. Efekt odwrócenia polega na tym, że przedstawiając rozmówcy fakty (dajmy na to np. te przemawiające za tym, że Ziemia jest kulą), utwierdzasz go w przekonaniu, że jest dokładnie odwrotnie. Innymi słowy, próba obalenia błędnych argumentów przynosi odwrotne efekty i wzmacnia fałszywe poglądy, co najprawdopodobniej związane jest z przekonaniem o własnej nieomylności (Nyhan, Reifler, 2010).  

Wtedy dyskusja już wrze, wszyscy krzyczą, a atmosfera zaczyna robić się groteskowa i niezręczna. Właśnie z tego powodu możemy powiedzieć, że w rozmowach o konspiracjonizmach chodzi o wszystko z wyjątkiem faktów… 

Efekt autorytetu, pierwszeństwa i kaskada dostępności  

Efekt autorytetu (lub białego kitla) to zjawisko będące królem YouTuba, pewnie ze względu na sensacyjną historię pierwszych badań, które doprowadziły do jego opisania. Jest on związany z tym, że szybciej przychodzi nam zaakceptować zdanie osoby, która podaje się za eksperta i specjalistę w danej dziedzinie, nawet jeśli ma on z nią niewiele wspólnego. 

Skrajny przypadek tego efektu został przedstawiony przez Stanleya Milgrama (1963), w którego badaniach niczego nieświadomi uczestnicy (oprócz napięcia prądu i krzyków) razili ładunkiem elektrycznym inne osoby (choć wyli oni z bólu), ponieważ aktor w białym fartuchu (udający lekarza) ich o to poprosił, legitymizując działanie badaniami (więcej pod tym linkiem).

Znany jest również efekt pierwszeństwa polegający na tym, że łatwiej przywołać nam te treści, z którymi spotkaliśmy się wcześniej (Wojciszke, 2011). Jedno i drugie może być wzmacniane przez kaskadę dostępności, czyli mechanizm odpowiadający za to, że treściom napotkanym częściej przypisujemy większy stopień prawdopodobieństwa (Zyzik, 2018). Z tego też powodu internetowe boty i fałszywe konta rozpowszechniają treści, tak by zalać nimi media społecznościowe. 

Błąd naturalistyczny i iluzja głębi poznawczej

W różnego rodzaju dyskusjach możesz też spotkać się z czymś, co określane jest błędem naturalistycznym lub odwołaniem do natury. Fenomen ten opisał już sto lat temu Edward Moore (1922). Jest to argument lub retoryczna zagrywka, których celem jest przedstawienie określonych zjawisk jako naturalnych a w związku z tym pożądanych (i odwrotnie, tzn. niepożądanych jako nienaturalnych). 

Dyskusje dotyczące homoseksualizmu, żywności (ale i kosmetyków!), roli i praw kobiet, medycyny czy ekologii to jedne z wrażliwszych tematów pod tym względem. Być może warto byłoby na początku choćby ustalić czym jest ta mityczna (o zgrozo!) natura…

A jeśli już przy tym jesteśmy, to zastanawiałaś lub zastanawiałeś się kiedyś jak działa twoja lodówka? Co sprawia, że rower trzyma pion albo jak to się dzieje, że ślizgamy się po lodzie? Można powiedzieć: lodówka chłodzi, rowerzysta pedałuje, a lód jest zwyczajnie śliski. 

Problem jednak w tym, że wcale tak nie jest, a odpowiada za to iluzja głębi poznawczej. To efekt odpowiadający za nasze przekonanie o posiadaniu dogłębnej wiedzy dotyczącej funkcjonowania otaczającego nas świata. W gruncie rzeczy, na co dzień korzystamy ze stereotypów, które pozwalają nam funkcjonować w świecie, bo wiedza ta nie jest niezbędna (Napiórkowski, 2020). Dzięki temu, by korzystać z lodówki, wystarczy wiedzieć, że jest w niej chłodno — i tyle. 

Bańka informacyjna — czy nie ma już dla nas nadziei? 

Już na sam koniec warto wspomnieć o temacie strywializowanym i wyeksploatowanym już niemal do granic, jednak mimo wszystko istotnym, czyli o bańkach informacyjnych. Pojęcie to sformułował Eli Pariser (2011) i mówiąc oględnie, odnosi się ono do algorytmów mediów społecznościowych prezentujących swoim użytkownikom i użytkowniczkom treści najbardziej pasujące do ich profilu zainteresowań. 

Bańka informacyjna to środowisko, w którym każdy i każda z nas funkcjonuje osobno. Niestety, wciąż niewiele wiemy o tym, jak głęboka jest skala tego zjawiska, choć ostatnie informacje dotyczące tzw. facebook files dają wiele do myślenia.  

Czy zatem nie dysponujemy już szansą na żadne porozumienie? Choć to całkiem pociągająca sensacja, to jednak nie stawiałbym sprawy w tym świetle. Mimo obrazu, który sprzedają nam media, wciąż potrafimy ze sobą rozmawiać, tym bardziej że polaryzacja społeczna może nie być tak skrajna, jak wydaje się na pierwszy rzut oka (Rugerri i in., 2021). 

Pułapek myślenia jest zdecydowanie więcej, ale nie sęk w tym, by wszystkie je wymienić, zresztą kto by je wszystkie spamiętał? Warto mieć na uwadze, że nie jesteśmy doskonali, a nasze myślenie, choćby i najlepiej wykształconych, czasami zawodzi, co niekiedy jest wykorzystywane, a my możemy być tego zwyczajnie nieświadomi.I nie ma w tym nic złego, jeśli przyświecają nam dobre intencje i nie idziemy w zaparte, by bronić (retorycznych) zamków z piasku. 

Uważaj na efekt martwego pola

Na sam koniec przestroga. Bowiem efekt martwego pola dowodzi, że zarówno sama znajomość schematów, jak i umiejętność obserwacji innych i spostrzegania błędów poznawczych w schematach myślowych, nie uwalnia nas od polegania na nich (Pronin et. al. 2002). 

To nie znaczy jednak, że jest to niemożliwe lub niewarte starań. Mimo wszystko mamy metodę naukową, która na każdym kroku próbuje choćby jakkolwiek ograniczyć stronniczy wpływ naszych mniemań. I właśnie dzięki temu jesteśmy w stanie o tym powiedzieć — choćby cokolwiek, a jeśli zmieniłeś/aś zdanie, to na początek zachęcam do lektury świetnej książki Daniela Kahnemana, Pułapki myślenia. O myśleniu szybkim i wolnym. Zatem tak, jest jeszcze nadzieja! 

Opublikowano w dziale nauki społeczne dnia 14 sty 2022

Podobał Ci się ten artykuł?
Żródła

Ermer, E., Cosmides, L., Tooby, J. (2008) Relative status regulates risky decision making about resources in men: Evidence for the co-evolution of motivation and cognition. Evolution and Human Behaviour, 29, 106–118.

Gigerenzer, G. (2006) Out of the Frying Pan into the FIre: Behavioral Reactions to Terrorist Attack. Risk Analysis, 26(2), 347-351.

Gigerenzer, G., Goldstein, D. (1996) Reasoning the fast and frugal way: Models of bounded rationality. Psychological Review, 103, 650–669.

Kahneman, D., Slovic, P., Tversky, A. (1982) Judgment under uncertainty: heuristics and biases. New York: Cambridge University Press, Pobrano z: https://philpapers.org/rec/KAHJUU (Dnia: 14.1.2022).

Kirkebøen, G., Vasaasen, E., Teigen, H. K. (2013) Revisions and Regret: The Cost of Changing your Mind. J. Behav. Dec. Making, (26) 1-12, Pobrano z:  https://onlinelibrary.wiley.com/doi/abs/10.1002/bdm.756 (Dnia: 14.1.2022).

Ledzińska, M. (2009) Człowiek współczesny w obliczu stresu informacyjnego. Warszawa: Wydawnictwo Instytutu Psychologii PAN.

Milgram, S. (1963) Behavioral Study of obedience. The Journal of Abnormal and Social Psychology, 67(4), 371–378. Pobrano z: https://doi.org/10.1037/h0040525 (Dnia: 14.1.2022)

Moore, E. G. (1922) Principia Ethica. Cambridge: Cambridge University Press. [za:] Napiórkowski, M. (2020) Kto ustala reguły? Instytucje kultury wobec polaryzacji politycznej. Kraków: Małopolski Instytut Kultury w Krakowie. Pobrano z: https://mik.krakow.pl/wp-content/uploads/Marcin-Napi%c3%b3rkowski-Kto-ustala-regu%c5%82y-gry.-Instytucje-kultury-wobec-polaryzacji-politycznej-MIK-2020.pdf (Dnia: 14.1.2022) Tłumaczenie pojęcia w przekładzie Marcina Napiórkowskiego. 

Nyhan, B., Relfer, J. (2010) When corrections fail. The persistence of political misperceptions. Political Behaviour 32, 303-330.

Perloff, Richard, M. (2015) A Three-Decade Retrospective on the Hostile Media Effect. Mass Communication and Society. 18(6), 701–729. doi:10.1080/15205436.2015.1051234. S2CID 142089379.

Hampton, K., Rainie, L., Lu, W.,  Shin, I., Purcell, K. (2015) Psychological Stress and Social Media Use. Pew Research Center, Pobrano z: https://www.pewresearch.org/internet/2015/01/15/psychological-stress-and-social-media-use-2/ (Dnia: 14.1.2022)

Pronin, E., Lin, D.Y., Ross, L. (2002) The Bias Blind Spot: Perceptions of Bias Versus Others. Personality and Social Psychology Bulletin. 28(3), 369-381. Pobrano z: https://journals.sagepub.com/doi/10.1177/0146167202286008 (Dnia: 14.1.2022)

Ruggeri, K., Većkalov, B., Bojanić, L., i in. (2021) The general fault in our fault lines. Nat Hum Behav 5, 1369–1380. Pobrano z:

https://www.nature.com/articles/s41562-021-01092-x#citeas (Dnia: 14.1.2022)

Stanovich, K. E. (2009) The cognitive miser: ways to avoid thinking. [W:] K. E. Stanovich (red.) What intelligence tests miss: the psychology of rational thought. New Haven: Yale University Press, 70–85.

Tayler, W.B. (2010) The balanced scorecard as a strategy-evaluation tool: the effects of implementation involvement and a causal-chain focus. The Accounting Review 85(3), 1095-1117.

Wojciszke, B. (2011) Psychologia społeczna. Warszawa: Wydawnictwo Naukowe Scholar. 

Zyzik, R. (2018) Postprawda a heurystyka dostępności. Ślepa uliczka dyskursu publicznego. [W:] T. W. Grabowski, M. Lakomy, K. Oświecimski (red.), Postprawda jako zagrożenie dla dyskursu publicznego. Kraków, Akademia Ignatianum. Pobrano z: https://www.researchgate.net/publication/323416200_Postprawda_a_heurystyka_dostepnosci_Slepa_uliczka_dyskursu_publicznego (Dnia: 14.1.2022)


Zdjęcie: mikemacmarketing - https://www.flickr.com/photos/152824664@N07/36588125251/, CC BY 2.0, https://commons.wikimedia.org/w/index.php?curid=95608114