Cosa dice esattamente il rapporto della Commissione europea sulle fake news 🤔

[Tempo di lettura stimato: 5 minuti]

Il miglior modo per restituire la sensazione che lascia la lettura del rapporto finale del gruppo di esperti della Commissione Europea sulle “fake news” è leggerne il titolo e la premessa. Il primo — "Final Report of the High Level Expert Group on Fake News and Online Disinformation" – contiene l’ormai screditata espressione, che già lo Shorenstein Center di Harvard chiedeva di eliminare dal dibattito (almeno) accademico lo scorso ottobre. La seconda, invece, recita così: “In questo rapporto, l’HLEG” — cioè il gruppo di 39 esperti selezionato dalla Commissione, per l’Italia Gianni Riotta de La Stampa, Federico Fubini del Corriere della Sera, Gina Nieri di Mediaset e Oreste Pollicino, professore ordinario di Diritto Costituzionale all'Università Bocconi di Milano — “evita deliberatamente l’espressione ‘fake news’”.

Se siete confusi, aspettate di chiedervi per quale motivo il profilo Twitter della Commissione divulghi, insieme al suo lancio, un sondaggio secondo il quale l’83% dei cittadini europei riterrebbe le “fake news” — ehm — “un problema per la democrazia”. Leggendo le ragioni per cui gli stessi esperti da essa interpellati lo rigettino, viene da chiedersi quale “problema”, esattamente. Se l’espressione è “inadeguata” a cogliere la complessità della fattispecie "disinformazione online" — non tutta è completamente falsa, molta mischia vero e falso, e non tutta riguarda "notizie" — e se, soprattutto, può risultare addirittura “fuorviante” — “un’arma con cui i potenti possono interferire nella circolazione di informazione”, si legge, “e attaccare o danneggiare media indipendenti” — di cosa stiamo parlando?

Difficile dirlo. Il rapporto, da un lato, si premura di spiegare cosa intenda per “disinformazione online”, sostenendo di occuparsi di “informazioni false, inaccurate o fuorvianti costruite, presentate e promosse per causare intenzionalmente danno pubblico a fini di lucro”. Dall’altro, tuttavia, contiene una stupefacente ammissione, che non rivela fino a pagina 31 (su 44): “è di primaria importanza”, si legge, “assicurare una aggiornata comprensione, basata su prove, delle dimensioni, della portata, delle tecnologie, degli strumenti e della natura dei problemi in esame”. A dire: finora, non l’abbiamo.

E allora perché non è già il rapporto a occuparsene, verrebbe da chiedere, soprattutto considerando che tralascia quasi interamente di riportare i risultati prodotti dalla ricerca finora in materia. Insomma, sappiamo che l’Europa è in stato di allerta, che grandi esperti sono coinvolti, e dalle pagine prodotte in queste ore — e che ora andremo a descrivere — che c’è un’intera road map a base di nuovi istituti di ricerca, autorità indipendenti, esperti, codici di condotta, raccomandazioni, programmi educativi e modalità di implementazione di tutto questo nuovo armamentario istituzionale. Ma non ce ne è detta la ragione.

Se la disinformazione online è un problema che l’Unione europea scopre oggi, confinandolo entro il perimetro della sola Rete, è quello il problema. Se invece ci sono profili di novità e urgenza nella problematica, qui non ne sono riportate le evidenze — ammesso ci siano. Ciò che abbiamo è una risposta che ha tutta l’aria di essere emergenziale senza che ce ne venga spiegata la natura — per propria stessa ammissione, ignota — né se e perché lo sia a un’emergenza vera e propria.

Ma il rapporto che dice, una volta problematizzate le sue premesse? Di buono, c’è che non dice poi molto che non sia di buonsenso (il che solleva di nuovo la domanda sull’utilità del lavoro svolto dal HLEG). No, come detto, all’uso dell’espressione “fake news”. Ma anche: no a ogni confusione tra disinformazione e contenuti illeciti, per esempio per diffamazione, di cui già si occupano le norme vigenti. No a ogni forma di censura nel nome della lotta alla disinformazione, perché in democrazia il falso si combatte con l’educazione a distinguere vero e falso, col giornalismo e con una sana e robusta opinione pubblica.

E no a leggi sul vero e il falso. Almeno, per il momento. Leggendo con attenzione, infatti, si coglie che l’obiettivo del rapporto è incentivare il più possibile un approccio “multistakeholder” — che metta cioè al tavolo istituzioni, giornalisti, piattaforme digitali, esperti, ecc. — per costruire buone pratiche e principi condivisi liberamente, nell’ottica dell’autoregolamentazione. Ma, per verificarne la reale implementazione, si riserva alla Commissione il potere di “considerare, in un secondo momento, appropriate risposte di (co)regolamentazione”. Saranno troppo “nette” o “rischiose” attualmente, e certo bisogna evitare che lo Stato o multinazionali private diventino arbitri della verità, ma la mano — questo si legge tra le righe — potrebbe rapidamente diventare più pesante nel caso le belle parole restassero, appunto, belle parole.

Alcune idee sono interessanti, per esempio una richiesta di maggiore trasparenza sulla diffusione di contenuti a mezzo bot, così che gli utenti siano in grado di comprendere se “l’apparente popolarità di un certo contenuto informativo o di un influencer sia il risultato di una amplificazione artificiale” del suo consenso o è “promossa da investimenti mirati”.

Altre sono banali, ma non per questo meno necessarie: il richiamo a studiare estesamente il fenomeno, a farne oggetto di formazione e alfabetizzazione sia tra chi studia che tra chi insegna, dentro e fuori le redazioni, ma anche il dotare i giornalisti di migliori strumenti — anche algoritmici, si legge, con una certa preoccupazione — per riconoscere e denunciare le manipolazioni in rete, e il più generale richiamo a maggiore trasparenza sui contenuti pubblicitari sulle piattaforme.

A queste ultime si chiede poi, giustamente, di dare più dati, specie sul funzionamento dei propri algoritmi di selezione e presentazione delle notizie. Non solo: le piattaforme — Google e Facebook, per capirci — dovrebbero “creare dei contact desk” a cui i media dovrebbero poter accedere per ottenere informazioni circa quegli algoritmi. Ma non dicendo fino a che punto sia lecito spingersi in quelle richieste è difficile comprenderne la reale utilità.

Altre idee invece lasciano francamente perplessi. Certo, tutelare il pluralismo informativo è fondamentale in democrazia. Ma siamo sicuri che creare “sistemi di filtraggio” dei contenuti così che ogni utente possa costruirsi la propria dieta informativa sulla base di “indicatori” di qualità e affidabilità delle fonti — pur stabiliti da esperti e professionisti del settore, anche se in modi ancora da definire — sia una buona strada per tutelarlo? E siamo sicuri sia una buona idea obbligare le piattaforme a inserirli nel loro ranking algoritmico?

Di nuovo, la premessa è che i social media rappresentino un problema per la varietà dell’informazione a cui siamo esposti. E invece una mole crescente di evidenze scientifiche mostra che siano molto meno una gabbia ideologica di quanto si credesse fino a poco tempo fa, e che anzi — dice il Reuters Institute — i social aprono le gabbie della maggior parte degli utenti, dando loro più possibilità di prima di entrare in contatto con opinioni diverse.

E poi, cosa vieterebbe a chi già oggi non si fida dell’informazione tradizionale — non certo un numero marginale di utenti — di usare un simile strumento per crearsi deliberatamente una timeline o un feed interamente composto di fonti ritenute poco affidabili? Se davvero i complottisti diventano più complottisti più li si definisce tali, cosa impedirebbe loro questo uso perverso degli “indicatori” che la Commissione tanto fatica a descrivere e cercare di comporre? E soprattutto, siamo proprio sicuri che i media ritenuti affidabili secondo questi criteri non spaccino disinformazione, pur se di natura diversa da quella di un blog o un sito che intende solo monetizzare l’analfabetismo scientifico?

Stupisce poi, in assenza di dati che identifichino e quantifichino il fenomeno della disinformazione online, la quantità di soggetti e organismi che questo rapporto prescrive di creare. Si contano una “Coalizione” tra piattaforme, operatori dei media ed esperti di fact-checking che costruisca un “Codice di Pratiche” per contrastare la disinformazione; un “esperto indipendente” che monitori sulla sua realizzazione fornendone, già tra ottobre e novembre, una “valutazione iniziale dei progressi”; un organismo “indipendente” che ne tenga costantemente sotto controllo gli sviluppi; l’istituzione di una serie di “Centri europei” per la ricerca sulla materia; un “Centro di Eccellenza” dotato delle risorse necessarie a coordinare i singoli centri di ricerca.

Ancora, in totale assenza di prove significative di interferenza straniera — leggasi: russa — nelle elezioni in Europa paragonabile a quella subita nel 2016 dagli USA, si chiede venga predisposto un finanziamento almeno pari a quello del Dipartimento di Stato americano, 120 milioni di dollari. E si promuovono maggiori investimenti pubblici per il “giornalismo di qualità”, per trovare modelli di business sostenibili per i media nell’era delle piattaforme, per promuovere il “data journalism” e l’uso dei “big data per i media” — mentre, dall’altro lato, dieci “principi chiave” su dieci contengono obblighi per le piattaforme. Non che siano considerate le uniche a dover combattere la disinformazione, ma certo la differenza di risalto, anche grafico, e nei toni usati verso il giornalismo — che nella disinformazione dovrebbe avere il suo nemico naturale — e i social media — che invece al massimo la veicolano, così come veicolano il suo contrario — è rivelatoria.

E forse, a voler essere maliziosi, l’unica spiegazione per cui questo rapporto esiste davvero.

Segnala un errore

LINEE GUIDA AI COMMENTI