Il nostro problema non sono le “fake news”. Ma la manipolazione e la mancanza di fiducia

[Tempo di lettura stimato: 10 minuti]

di Jeff Jarvis*

 

"La propaganda è il braccio esecutivo di un governo invisibile".

– Edward Bernays, Propaganda (1928)

Le "fake news" sono solo il sintomo di mali sociali maggiori. Il vero problema sono la fiducia e la manipolazione. Le nostre istituzioni, indipendentemente se siano affidabili o inaffidabili, sono esposte alla manipolazione di un gruppo di persone malintenzionate che include troll e ideologi, russi e terroristi, tutte in azione per motivi diversi ma che usano metodi simili.

La fiducia, invece, è un problema relativo a un periodo più a lungo termine che può coprire decenni o addirittura un secolo. Se non affrontiamo il problema immediato e urgente della manipolazione, le istituzioni non riusciranno a reinventarsi e a ottenere nuovamente la fiducia del pubblico attraverso più inclusione, equità, trasparenza, reattività e onestà. Alla News Integrity Initiative cominceremo ad affrontare entrambe le urgenze.

Qui voglio analizzare l'emergenza della manipolazione con una serie di suggerimenti sulle difese necessarie in molti settori – non solo informazione e media, ma anche piattaforme, aziende tech, brand, marketing, governi, politica, istruzione – tra cui:

  • Consapevolezza. Come chiede Storyful, "Chi è il tuo corrispondente su 4chan?". Se non comprendiamo come veniamo manipolati, diventiamo pedine dei manipolatori.
  • Affamare i manipolatori privandoli di denaro, ma ancora di più, di attenzione, mostrando i loro metodi senza considerare il contenuto dei loro messaggi.
  • Imparare dal successo dei metodi dei manipolatori e cooptarli per produrre fatti, giornalismo e verità nella discussione pubblica.
  • Fornire maggiore trasparenza e responsabilità alle nostre istituzioni. Per quanto riguarda il giornalismo ciò si traduce nel mostrare il nostro lavoro, riconoscendo il pericolo della velocità (un gioco che i manipolatori vinceranno sempre) e imparando ad ascoltare il pubblico per riportare e servire le varie esigenze delle comunità. Per quanto riguarda le piattaforme, questo significa dar conto della qualità nelle decisioni algoritmiche e aiutare gli utenti a selezionare meglio le fonti di informazione. Per quanto concerne l'industria pubblicitaria, significa fornire strumenti per preferire aziende, agenzie e reti responsabili di ciò che scelgono di sostenere.

Esaminerò in dettaglio questi suggerimenti dopo aver prima analizzato i meccanismi e i motivi della manipolazione. Non penso di avere una competenza particolare. Sto soltanto condividendo quello che so.

Mi sono convinto che la manipolazione sia un'emergenza immediata grazie a danah boyd di Data & Society, che ha recentemente pubblicato l'ottimo rapporto di Alice Marwick e Rebecca Lewis, Media Manipulation and Disinformation Online, in cui sono elencati coloro che stanno cercando di manipolare i media (troll, ideologi, hate groups, teorici della cospirazione, gamergaters), i luoghi e le modalità utilizzati (blog, siti, bacheche e social media), e i motivi per cui lo fanno (per denaro, odio, potere, per creare polarizzazione, per destabilizzare le istituzioni, o per divertimento).

Per discutere di manipolazione, è importante esaminare anche gli strumenti e i metodi russi. Per questo, raccomando la lettura di due rapporti interessanti: uno della NATO Defense College Foundation, Handbook of Russian Information Warfare di Keir Giles, e un altro della RAND Corporation, The Russian 'Firehose of Falsehood' Propaganda Model di Christopher Paul e Miriam Matthews.

Secondo danah: "I nostri media, i nostri strumenti e la nostra politica sono sfruttati da innumerevoli attori che utilizzano questi sistemi per aiutare lo sviluppo della polarizzazione a fini personali, economici e ideologici. Alcune volte, per divertimento. Altre con obiettivi molto più inquietanti ".

In sostanza, ci stanno usando.

La manipolazione russa

Ho trovato il report della NATO particolarmente preoccupante, perché nell'esaminare quello che la Russia ha fatto per manipolare l'informazione in Ucraina e altrove, possiamo ritrovare in gran parte il copione di ciò che sta accadendo negli Stati Uniti. Non sto suggerendo che ci sia la Russia dietro a tutto questo, ma che tutti i manipolatori imparano gli uni dagli altri mentre noi, nel mondo dei media, non lo facciamo.

La NATO sottolinea come la Russia non ritenga che quanto stia accadendo sia una guerra informatica, piuttosto una guerra di informazione. "La Russia si riferisce allo 'spazio informativo'", spiega Rand,"includendovi le elaborazioni delle informazioni sia dei computer che dell'uomo, in sostanza il dominio cognitivo". La psicologia umana, per la precisione. Per cui le armi russe funzionano accuratamente non solo online ma anche nei media mainstream, consentendo di "rubare, piantare, interdire, manipolare, distorcere o distruggere l'informazione".

"L'informazione", sostiene l'autore di un documento russo citato dalla NATO, "è diventata un'arma alla pari di un missile, una bomba e così via, ma ti permette di usare una quantità molto piccola di materiale o di energia per avviare, monitorare e controllare processi i cui parametri di materiale e di energia sono di molti ordini di grandezza superiori".

La Russia ha utilizzato come arma una nuova reazione a catena nei social media. A quale scopo?

"L'obiettivo principale del conflitto informatico-psicologico è il cambiamento di regime", riporta un altro documento russo, "influenzando la coscienza di massa della popolazione, dirigendo le persone in modo che la popolazione del paese vittima sia indotta a sostenere l'aggressore, agendo contro i propri interessi".

Suona familiare? Sembra agghiacciante? Il nostro problema non si limita a uno stupido contenuto costruito su bugie e stupidità. Il problema è una potente strategia messa in atto per manipolarti.

Le nostre istituzioni sostengono tutto questo. "La Russia cerca di influenzare il processo decisionale estero fornendo informazioni inquinate", spiega la NATO, "sfruttando il fatto che i rappresentanti occidentali eletti ricevano e siano sensibili agli stessi flussi informativi dei loro elettori". Quando stanno al gioco, il giornalismo, l'internet aperto e la libertà di parola che tanto amiamo sono usati contro di noi. "Anche una copertura mediatica seria può involontariamente dare autorevolezza a false informazioni russe". In questo risiede il pericolo più insidioso contro il quale danah boyd ci mette in guardia: fare il loro gioco dandogli attenzione e ritenendo, quella, informazione.

Il loro obiettivo è la polarizzazione – all'interno di una nazione e tra i suoi alleati – e ottenere che un paese divori le proprie istituzioni. Le loro tattiche, come sostiene Ben Nimmo, ex addetto stampa della NATO, mirano a "respingere, distrarre, sconvolgere" e possono essere messe in campo sfruttando le vulnerabilità della società presa come obiettivo, in particolare la libertà di espressione e i principi democratici". Per Nimmo, queste persone utilizzano "eserciti di informazione di massa per gestire un dialogo diretto con la gente su Internet", usando armi "più pericolose di quelle nucleari". Oppure, come gli autori russi di un documento citato dalla NATO sostengono: "Oggi, i mass media possono provocare caos e confusione nei governi e nella gestione militare di qualsiasi paese, infondere idee di violenza, tradimento e immoralità e scoraggiare l'opinione pubblica".

In questi giorni sei demoralizzato? Allora sta funzionando.

Il documento russo sulla guerra informatica e psicologica citato dalla NATO elenca le tattiche chiave della Russia, che, come i loro obiettivi e risultati, suoneranno sinistramente familiari:

I metodi primari di manipolazione dell'informazione utilizzati dai mass-media a beneficio degli obiettivi del confronto informativo-psicologico sono:

Le menzogne esplicite ai fini della disinformazione ...;

Nascondere informazioni significativamente importanti;

Seppellire informazioni preziose in una massa di scorie informative ...;

Sostituzione terminologica: utilizzo di concetti e termini il cui significato non è chiaro o ha subito un cambiamento qualitativo, che rende più difficile dare forma a una rappresentazione reale degli eventi; [vedi "fake news"]

Uso di tabù su forme specifiche di informazione o categorie di notizie ...; [vedi "correttezza politica"]

Fornire informazioni negative, più facilmente accettate dal pubblico rispetto a quelle positive.

Altre tattiche ancora: troll e bot sono utilizzati per creare una percezione dell'opinione pubblica che sia raccolta dai media. I giornalisti sono molestati e intimiditi, anche da troll e bot, che sfruttano il volume: "Quando il volume dell'informazione è basso," dice RAND, "i destinatari tendono a preferire gli esperti, ma quando il volume delle informazioni è alto, i destinatari tendono a preferire l'informazione da altre fonti". E poi sfruttano la velocità: "La propaganda russa ha l'abilità di arrivare per prima", osserva Rand. "Ci vuole meno tempo a costruire fatti di quello necessario a verificarli." E la prima impressione generata detta l'agenda.

A livello più alto, è la verità a venire attaccata. "Molte falsità, non necessariamente coerenti, sono in parte progettate per minare la fiducia nell'esistenza di una verità oggettiva, sia da parte dei media che da fonti ufficiali", sostiene la NATO. "Questo contribuisce a erodere i vantaggi relativi alle società democratiche liberali quando si cerca di contrastare la disinformazione". [Mia enfasi]

Cosa facciamo nel mondo del giornalismo per rispondere a tutto questo? Fact-checking. Debunking. Copriamo la notizia. Ed è proprio quello che vogliono che noi facciamo, dando loro attenzione. Lo dice l'ex ambasciatore statunitense in Ucraina Geoffrey Pyatt: "Potremmo trascorrere ogni ora di ogni giorno cercando di controbattere ogni bugia, al punto da non occuparci di altro. Questo è esattamente ciò che vuole il Cremlino ".

La manipolazione occidentale

Ribadisco: non sto dicendo che la Russia sia dietro a tutta la manipolazione dei media. Assolutamente. Ma come suggeriva Hillary Clinton, la fabbrica macedone di fake news, che la seguiva, ha imparato i propri trucchi da qualcuno. I troll e i manipolatori imparano gli uni dagli altri perciò dobbiamo saperne di più.

Nel rapporto pubblicato da Data & Society, Marwick e Lewis hanno riportato ricerche sulla diffusione dei messaggi populisti pro-Trump, che si diffondono: 1) "attraverso meme condivisi su blog e Facebook, attraverso i bot di Twitter, i canali YouTube"; 2) qualche volta anche attraverso l'account personale Twitter di Trump; 3) finché non vengono poi "diffusi da una stampa iper faziosa di estrema destra" radicata nelle teorie della cospirazione e nella disinformazione"(leggi: Breitbart e altri); 4) fino a che non "hanno influenzato l'agenda delle principali fonti dei mainstream media". Da 4chan e 8chan ad Alex Jones, Breitbart, fino a Trump, alla Fox e alla CNN, arrivando fino a te.

Come "fake news" è da considerare un'etichetta superficiale, lo è anche "alt-right", che Marwick e Lewis analizzano nei suoi segmenti costituenti: "un'amalgama composta da teorici della cospirazione, tecno-libertari, nazionalisti bianchi, difensori dei diritti dell'uomo, troll, anti-femministi, attivisti anti-immigrazione e ragazzi annoiati". "Sfruttano sia le tecniche della cultura partecipativa che le opportunità offerte dai social per diffondere le loro diverse credenze" e "puntare alle vulnerabilità nell'ecosistema dei mezzi di informazione per aumentare la visibilità e la platea dei loro messaggi". Quello che li tiene uniti è un insieme di opinioni – anti-istituzioni, anti-multiculturalismo, anti-globalismo, anti-femminismo, anti-semitismo, anti-politica e ideologie nazionaliste e razziste. Ma ciò che più li unisce è la tecnica usata. Come i troll, mirano alla reazione per la reazione stessa. Prendono in giro "il tipo di panico morale suscitato dalla tragedia della settimana perpetrata da talk show e notizie via cavo", come ha osservato la studiosa della rete Whitney Phillips. E sfruttano la Legge di Poe, giocando "con l'ambiguità in modo tale che il pubblico non sia mai abbastanza sicuro se siano seri o meno".

Hackerano i social, i media e, alla fine, l'attenzione e la democrazia.

E in questo c'è la morsa paradossale in cui ci ritroviamo: ogni volta che ci rivolgiamo a loro, li controlliamo e li attacchiamo, li alimentiamo con l'attenzione. Hillary Clinton ha imparato, nel modo peggiore, che "controbattendo le idee [estremiste], ha offerto loro nuova visibilità e legittimità". "Inavvertitamente ha cementato la loro importanza." Marwick e Lewis sostengono che "coinvolgendo i media nel raccontare determinate storie, anche attraverso il debunking, i manipolatori dei media sono in grado di influenzare l'agenda pubblica".

E la situazione può soltanto peggiorare. In un dibattito che ho moderato sull'argomento, al World Economic Forum (WEF) di San Francisco, ho ascoltato alcune previsioni spaventose. In primo luogo, che i prossimi obiettivi saranno "i pilastri della società" – medici, sacerdoti, revisori, giudici. In secondo luogo, che le comunità diventeranno "tribù di opinioni", dove chi non è d'accordo con l'ortodossia dell'opinione sarà etichettato come imbonitore. In terzo luogo, che la realtà aumentata renderà più facile falsificare non solo testi e foto, ma anche audio e video e quindi identità. E, infine, ed è ciò che più temo, che una nuova rivoluzione luddista contro la tecnologia ci dividerà in "tribù connesse e disconnesse".

In un altro dibattito tenutosi sempre al WEF  ho ascoltato dirigenti di ONG, governi, banche, grandi aziende, industrie farmaceutiche, amministrazioni e media iniziare a riconoscere l'emergenza che stiamo vivendo. Bene.

E allora che diamine facciamo?

Noi che lavoriamo nei media e in altre istituzioni dobbiamo sviluppare nuove strategie che tengano conto delle tattiche adottate dai nostri nuovi nemici. Dobbiamo andare molto oltre rispetto a dove ci troviamo adesso.

Oggi, alcuni contrastano le falsità con il fact-checking. Altri preferiscono accrescere il pensiero critico del pubblico con la cosiddetta alfabetizzazione delle notizie. Altri ancora compongono liste e indicatori di vizi (la News Integrity Initiative sta collaborando con Storyful e Moat in un unico sforzo) e virtù delle fonti. Google sta cercando di fornire affidabilità, autorità e qualità delle fonti con una sua classificazione. Facebook sta eliminando gli account falsi utilizzati per la conversazione pubblica. (Se solo Twitter fosse più duro nei confronti di bot e fake malevoli). Ne ho visti così tanti di sforzi (idealistici, credo) di classificazione dei siti in base alla qualità.

Queste soluzioni sono positive fin quando si portano avanti, ma piuttosto che attaccare fatti, fonti e account – semplici tattiche – dobbiamo attaccare il vero sintomo (la manipolazione) e la reale malattia (la fiducia). "Il primo passo consiste nel riconoscere che questa è una sfida non di poco conto", sottolinea RAND. Di seguito alcuni dei suggerimenti che sto considerando:

Prendere coscienza: I media devono riconoscere come e quando sono oggetti di manipolazione. Mi piace l'idea di Storyful di assumere un corrispondente 4chan a tal punto che alla News Integrity Initiative stiamo pensando di coinvolgere un giornalista per aiutare i media a capire cosa sta succedendo e avvertendole anticipatamente sulle azioni intraprese contro di loro.

Voglio anche sapere come tutti gli esperti citati precedentemente – e altri presenti nella mia lista continuamente aggiornata – sono manipolati e cosa possono fare in propria difesa, senza la quale diventano giocattoli nella mani dei troll e di Putin.

Condividere informazioni: Oltre ai corrispondenti di 4chan, le principali redazioni dovrebbero avere personale che si occupi di riconoscere la manipolazione prima che colpisca la copertura delle news e la loro veridicità. Le persone preposte a questo compito dovrebbero comunicare con i loro colleghi di altre redazioni. Nei meeting del WEF mi ha colpito come i media più importanti gestiscono gli attacchi di disinformazione senza condividere però tra di loro le informazioni. Perciò, dovremmo sviluppare reti di sicurezza all'interno dei media e non solo in modo da condividere le informazioni, le valutazioni delle minacce, gli avvisi, le migliori pratiche e le lezioni. Prendendo in prestito l'analisi di Craig Newmark, sostenitore della News Integrity Initiative, queste potrebbero essere le NATO di giornalismo, media, brand e così via, istituite sia per informare che per proteggersi vicendevolmente. La News Integrity Initiative non vedrebbe l'ora di sostenere simili sforzi.

Affamarli: Ci sono molti sforzi in corso – alcuni menzionati in precedenza – per ridurre alla fame i manipolatori, privandoli del loro sostegno economico garantito attraverso la pubblicità, aiutando le reti pubblicitarie, le agenzie e le aziende al fine di evitare che diano loro soldi (e, mi auguro, scegliendo, invece, di sostenere la qualità nei media). Dobbiamo inoltre mettere in difficoltà i cosiddetti motori di raccomandazione (Revcontent, Adblade, News Max così come Taboola e Outbrain) che sostengono e guadagnano dalle fake news, quanto gli editori che distribuiscono le loro scorie. E anche questo non basta.

La sfida più difficile – specialmente per i media – è affamare i manipolatori privandoli di ciò che vogliono e di cui si nutrono: l'attenzione. Già mi sembra di sentire l'obiezione dei giornalisti che sono obbligati a raccontare quello di cui la gente sta discutendo. E se non fossero le persone a parlarne ma i bot? Se l'unico motivo per cui la gente finisce per parlare di un argomento è una sorgente inquinata a causa della manipolazione di alcuni fanatici su 4chan, che arriva poi a Infowars, Breitbart, Fox, MSM e – grazie all'opera di un corrispondente 4chan – fino a te? Sento anche giornalisti affermare che tutto quello che ho spiegato finora fa dei manipolatori una storia da coprire e raccontare al pubblico. Sì, ma solo in una certa misura. Ciò che sostengo è che il giornalismo dovrebbe occuparsi dei metodi dei manipolatori, non dei loro messaggi.

Anticiparli: RAND avverte che non c'è speranza nel rispondere ai manipolatori, per cui è più saggio competere con loro. "Non usare il tuo flusso di informazioni per spegnere il fuoco della falsità; punta l'idrante verso qualunque altra cosa e cerca di spingere quel pubblico in direzioni più produttive... Aumenta il flusso di informazioni convincenti e comincia a competere". In altre parole, se sai – grazie alla tua rete di informazioni e al corrispondente 4chan – che i manipolatori si stanno occupando, per esempio, di vaccini, arrivaci prima e detta l'agenda del pubblico attraverso giornalismo e contenuti. Avverti il pubblico che qualcuno cercherà di manipolarlo. Non reagire troppo tardi. Informa per primo.

Imparare da loro: Nei media continuiamo a credere che il nostro mondo non sia cambiato, che sono i cittadini a dover venire incontro a noi e alle nostre fonti per essere informati. No! Siamo noi a dover cambiare, portando il giornalismo al pubblico dove e quando ci sono discussioni. Dovremmo imparare dalle lezioni dei manipolatori come diffondono la disinformazione, per poter usare le loro tecniche per diffondere informazione. Inoltre, non dobbiamo supporre che tutti i nostri strumenti provati e concreti (articoli, spiegazioni, fact-checking) possano contrastare la propaganda dei manipolatori. Dobbiamo sperimentare e imparare ciò che convince e non convince la gente a preferire fatti e ragionevolezza.

Dobbiamo ripensare noi stessi e ricostruire la fiducia nei nostri confronti: Infine, passiamo dai sintomi ai disturbi. I nostri media "tradizionali" non godono di fiducia per molte ragioni che dobbiamo affrontare. I media – non solo quelli cosiddetti tradizionali, ma l'ecosistema mediatico nel suo complesso – devono diventare più equi, inclusivi, riflessivi e responsabili nei confronti delle comunità. Dobbiamo diventare più trasparenti. Dobbiamo imparare ad ascoltare prima di creare il prodotto che chiamiamo contenuto. Anche le aziende, il governo e la politica devono imparare ad ascoltare prima. Questi sono gli obiettivi a lungo termine.

*Direttore del Tow-Knight Center for Entrepreneurial Journalism alla City University di New York.

Articolo pubblicato su Medium il 12 giugno 2017 – traduzione di Roberta Aiello

Immagine anteprima da Media Manipulation and Disinformation Online, un'illustrazione di Jim Cooke.

Segnala un errore
LINEE GUIDA AI COMMENTI