Media Literacy Post

La psicologia della disinformazione: perché siamo vulnerabili

14 Luglio 2020 7 min lettura

author:

La psicologia della disinformazione: perché siamo vulnerabili

7 min lettura

In che modo la nostra mente ci rende più vulnerabili alla disinformazione? First Draft ha spiegato alcuni dei concetti cognitivi più importanti per capire perché siamo così facilmente ingannabili. Ogni concetto è accompagnato da una lettura accademica consigliata per chi volesse approfondire.

Conoscere la psicologia della disinformazione (le scorciatoie mentali, le confusioni e le illusioni che ci incoraggiano a credere cose che non sono vere) può insegnarci molto su come prevenirne i suoi effetti dannosi. Attraverso lo studio della psicologia possiamo capire se le correzioni alle notizie false sono efficaci, cosa si dovrebbe insegnare nei corsi di alfabetizzazione mediatica e perché, in quanto esseri umani, siamo vulnerabili alla disinformazione.

Leggi anche >> Come elaboriamo l’informazione che riceviamo e gli errori della nostra mente

Sebbene questi concetti psicologici siano nati nel mondo accademico, molti hanno iniziato a far parte del linguaggio quotidiano. La "dissonanza cognitiva", descritta per la prima volta nel 1957, è uno di questi; il "pregiudizio di conferma" è un altro. L'interpretazione errata di questi concetti nelle mani di persone non esperte (o peggio ancora, divulgatori incompetenti) può contribuire a creare nuove forme di disinformazione.

Se giornalisti, fact-checker, ricercatori, conduttori e influencer che parlano di disinformazione non conoscono o non capiscono questi processi psicologici, rischiano di diventare essi stessi parte del problema.

Ecco perché è importante conoscere queste dinamiche in modo più approfondito.

Avarizia cognitiva

L'avarizia cognitiva (cognitive miserliness) è la caratteristica psicologica che ci rende più vulnerabili alla disinformazione. Preferiamo utilizzare metodi più semplici e immediati per risolvere un problema piuttosto che metodi che richiedono più ragionamento e impegno.

Ci siamo evoluti per usare il minor sforzo mentale possibile. Questo fa parte di ciò che rende il nostro cervello così efficiente: non abbiamo bisogno di pensare davvero tanto per prendere una decisione. Ma significa anche che non pensiamo abbastanza quando ne abbiamo bisogno, per esempio quando leggiamo distrattamente un'informazione falsa e la prendiamo per vera, senza farci troppe domande.

Teoria del doppio processo

Secondo la teoria del doppio processo (dual process theory), abbiamo due modi di pensare di base: Sistema 1, un processo automatico che richiede poco sforzo; e Sistema 2, un processo analitico che richiede maggiori sforzi. Poiché siamo avari cognitivi, generalmente useremo il pensiero del Sistema 1 (quello facile) quando pensiamo di potercela cavare.

L'elaborazione automatica comporta il rischio di disinformazione per due motivi. In primo luogo, più è facile elaborare qualcosa, più è probabile che pensiamo che sia vera. Per cui, i giudizi facili e veloci spesso sembrano giusti anche quando non lo sono. In secondo luogo, con l'elaborazione automatica possono sfuggirci dei dettagli, a volte cruciali. Ad esempio, potremmo ricordare qualcosa che abbiamo letto o sentito, ma dimenticare che è stato già smentito.

Euristica

L'euristica (heuristics) consiste in tutti quegli indicatori che usiamo per esprimere giudizi rapidi. Usiamo l'euristica perché ci permette di semplificare analisi complesse e giungere a una soluzione in tempi rapidi.

Il problema dell'euristica è che spesso porta a conclusioni errate. Per esempio, possiamo affidarci a un "euristico avallo sociale" (qualcuno di cui ti fidi ha approvato, o ritwittato, un post) per giudicarne la veridicità. Ma per quanto importante possa essere la relazione che ci lega a quella persona, la fiducia da sola non è un indicatore sufficiente e potrebbe portarci a credere qualcosa che non è vero.

Come scrive Claire Wardle nella guida essenziale sul caos informativo, “sui social media l'euristica (le scorciatoie mentali che usiamo per dare un senso al mondo) non funziona". Infatti, la condivisione di alcuni contenuti comporta la loro decontestualizzazione e priva il lettore di quegli indizi visivi che potrebbero aiutarlo a trarre conclusioni veloci corrette. Proviamo a pensare al link di un giornale condiviso su Facebook: vediamo il titolo dell'articolo e il nome della testata, ma non possiamo conoscere la tipologia del contenuto. Potrebbe essere un articolo di cronaca, potrebbe trattarsi di un editoriale, potrebbe essere l'opinione di una persona esterna al giornale (un politico, per esempio), potrebbe essere addirittura satira. Potrebbe essere qualsiasi cosa e il processo euristico davanti a un contenuto condiviso sui social da una persona che conosciamo potrebbe portarci a conclusioni sbagliate.

Dissonanza cognitiva

La dissonanza cognitiva (cognitive dissonance) è l'esperienza dovuta alla conoscenza di un'informazione che contraddice le nostre convinzioni. È un'esperienza dolorosa psicologicamente e per questa ragione siamo indotti a rifiutare le informazioni credibili per alleviare la dissonanza. Questo processo inconscio può addirittura portare a un rafforzamento delle proprie convinzioni, anche dopo aver scoperto che sono sbagliate.

Confirmation bias o pregiudizio di conferma

Il confirmation bias è la tendenza a credere alle informazioni che confermano le nostre convinzioni pre-esistenti e a rifiutare le informazioni che le contraddicono. Gli attori della disinformazione possono sfruttare questa tendenza per amplificare convinzioni false già esistenti.

Il confirmation bias appartiene a una lunga lista di pregiudizi cognitivi.

Ragionamento interessato

Il ragionamento interessato (motivated reasoning) si presenta quando le persone usano le loro capacità di ragionamento per convincersi di ciò che vogliono credere, piuttosto che per determinare la verità. Il punto cruciale qui è l'idea che le facoltà razionali di alcune persone (e non il pensiero pigro o irrazionale) possano contribuire alla consolidazione di convinzioni disinformate.

Il ragionamento interessato è un punto chiave dell'attuale dibattito sulla psicologia della disinformazione. In un pezzo del 2019 pubblicato sul New York Times, David Rand e Gordon Pennycook, due scienziati cognitivi rispettivamente dell'Università della Virginia e del MIT, hanno criticato questo concetto psicologico. La loro tesi è che le persone semplicemente non sono abbastanza analitiche quando elaborano le informazioni.

"C'è chi sostiene che la nostra capacità di ragionare sia dirottata dalle nostre convinzioni: cioè siamo inclini alla razionalizzazione. Altri studiosi - tra cui noi due - affermano che il problema è che spesso non riusciamo a esercitare le nostre facoltà critiche: cioè siamo mentalmente pigri".

Secondo Rand e Pennycook il pensiero pigro (e non il ragionamento interessato) è il fattore chiave nella nostra vulnerabilità psicologica alla disinformazione.

Ignoranza pluralistica

L'ignoranza pluralistica (pluralistic ignorance) è la mancanza di comprensione di ciò che gli altri nella società pensano e credono. A volte siamo indotti erroneamente a pensare che un gruppo a cui non apparteniamo sia in maggioranza (per esempio in politica), quando in realtà si tratta di una posizione sostenuta da pochissime persone.

Questo processo cognitivo può essere aggravato dalla confutazione della disinformazione: il processo di smentita può rendere determinate visioni più popolari di quanto non siano in realtà. Pensiamo ad alcune delle teorie del complotto diventate celebri negli ultimi anni, anche grazie agli articoli, video, documentari che le smentiscono. Detto in altre parole, la fama che ha acquisito il "terrapiattismo" come teoria del complotto potrebbe indurci a credere che i terrapiattisti siano molti di più di quelli che realmente sono.

Una variante di questo concetto è l'effetto del falso consenso: quando sopravvalutiamo il numero di persone che condividono le loro opinioni.

Effetto della terza persona

L'effetto della terza persona (third-person effect) descrive il modo in cui tendiamo ad assumere che la disinformazione influenzi gli altri più di noi stessi.

Nicoleta Corbu, professoressa di comunicazione presso la National University of Political Studies and Public Administration in Romania, ha recentemente scoperto che esiste un significativo effetto della terza persona nella capacità percepita di individuare la disinformazione: le persone valutano se stesse meglio nell'identificare la disinformazione rispetto agli altri.

Ciò significa che possiamo fare l'errore di sottovalutare la nostra vulnerabilità alla disinformazione e abbassare le nostre difese.

Fluidità percettiva

La fluidità (fluency) si riferisce alla facilità con cui le persone elaborano le informazioni. Siamo portati a credere con maggior convinzione che qualcosa sia vero se riusciamo a elaborarlo in maniera fluida. Sembra giusto e quindi sembra vero.

Ecco perché la ripetizione è così potente sulla nostra percezione: se l'hai già sentita prima, la elabori più facilmente e quindi è più probabile che ci creda. Quindi la semplice ripetizione di una notizia, seppur falsa e smentita in diverse occasioni, può renderla più familiare, fluente e credibile.

Significa anche che le informazioni di facile comprensione sono più credibili, perché vengono elaborate in maniera più fluida.

Ricettività alle cazzate

Questo concetto psicologico si riferisce a quanto una persona possa essere ricettiva alle informazioni che hanno scarso valore per stabilire la verità. I ricercatori Gordon Pennycook e David Rand usano il concetto di "ricettività alle cazzate" per esaminare la capacità di alcune persone di credere ai titoli delle notizie false. Le cazzate sono diverse dalle bugie (che contraddicono intenzionalmente la verità), ma sono un ottimo combustibile per la disinformazione.

Pennycook e Rand hanno scoperto che più una persona è portata ad accettare una frase pseudo-profonda (cioè una cazzata) come "Il significato nascosto trasforma una bellezza astratta senza pari", più è sensibile ai titoli di notizie false.

Questa scoperta contribuisce a sostenere la teoria di Pennycook e Rand che abbiamo visto precedentemente secondo cui la suscettibilità alle notizie false deriva più da un pensiero analitico insufficiente, piuttosto che da un ragionamento interessato. In altre parole, utilizziamo troppo il pensiero automatico del Sistema 1 e non abbastanza il pensiero analitico del Sistema 2.

Immagine via Pixabay

Iscriviti alla nostra Newsletter

  Consenso all’invio della newsletter: Dai il tuo consenso affinché Valigia Blu possa usare le informazioni che fornisci allo scopo di inviarti la newsletter settimanale e una comunicazione annuale relativa al nostro crowdfunding.
Come revocare il consenso: Puoi revocare il consenso all’invio della newsletter in ogni momento, utilizzando l’apposito link di cancellazione nella email o scrivendo a info@valigiablu.it. Per maggiori informazioni leggi l’informativa privacy su www.valigiablu.it.
Segnala un errore