‘Fake news’, algoritmi, Facebook e noi

[Tempo di lettura stimato: 8 minuti]

La settimana scorsa l'ideatore di Google News ha proposto in un post pubblicato su Medium un metodo per affrontare il problema della diffusione virale delle cosiddette 'fake news'. Secondo Krishna Bharat, i social media dovrebbero adottare un approccio misto, che combini le segnalazioni degli utenti, l’uso di algoritmi, il machine learning e l’intervento umano (quindi editoriale), per individuare le storie potenzialmente false e intervenire prima che esse diventino virali.

Concretamente: se Facebook dovesse decidere di agire editorialmente su tutte le 'fake news' che superano la soglia delle 10mila condivisioni, scrive Bharat, dovrebbe iniziare ad analizzare le notizie segnalate dagli utenti che abbiano più di mille condivisioni. In questo modo i suoi “editor” avrebbero il tempo di esaminare la notizia e decidere se e come intervenire.

Una sorta di giornalismo preventivo

Ricorrendo a un caso ormai celebre, il creatore di Google News ricorda la storia del falso endorsement di Papa Francesco a Donald Trump durante la campagna elettorale americana. Un sistema automatizzato attraverso algoritmi sarebbe stato in grado individuare la bufala a partire dalla sua pubblicazione su alcune fonti riconosciute come controverse. Allo stesso tempo, avrebbe selezionato le parole chiave (in questo caso “Papa”, “Trump”, “endorsement”) che gli avrebbero permesso di seguirne l’evoluzione dentro e fuori dal social network e di creare una sorta di contenitore di articoli, in modo da avere un controllo completo sulla copertura della “notizia” e conoscere sia le fonti che l’hanno pubblicata che le pagine che l’hanno diffusa. Bharat precisa che questo tipo di selezione, conosciuta col nome di “document clustering”, non è tecnicamente complessa ed è già utilizzata con successo da Google News e Bing News per raggruppare articoli di diverse fonti sulla stessa storia.

Una volta raccolti questi dati e stabilito il potenziale virale della notizia “sospetta”, l’algoritmo avrebbe passato la palla a una squadra di “esseri umani” che avrebbero dovuto stabilire se l’endorsement del Papa a Trump era una 'fake news'. Il team editoriale che ha in mente Bharat avrebbe verificato la veridicità della notizia mettendosi in contatto con i diretti interessati (ufficio stampa del Vaticano, in questo caso) o contrastando la notizia con altre fonti (ritenute affidabili). In altre parole, dopo che l’algoritmo ha determinato la necessità dell’intervento editoriale, si tratta di un lavoro essenzialmente giornalistico.

Una volta accertato che il Papa non aveva fatto nessun endorsement a Trump, e avendo sottomano tutte le informazioni per prevedere la diffusione virale della notizia, il team di Facebook avrebbe potuto segnalare come 'fake news' tutti gli articoli che riportavano quella storia. La tempestività dell’intervento, nelle intenzioni dell’autore, avrebbe limitato la diffusione a macchia d’olio della bufala (anche se, è bene precisare, la bufala dell’endorsement a Trump da parte del Papa è stata resa famosa più dagli articoli che affrontano la questione delle 'fake news', che dalle persone che l’hanno effettivamente condivisa credendola vera).

La soluzione di Krishna Bharat presenta caratteristiche molto simili all’attuale sistema di verifica dei contenuti che Facebook ha esternalizzato ad ABC News, Associated Press, FactCheck.org, Politifact e Snopes, responsabili del 'fact checking' sulle notizie che superano una certa soglia di segnalazioni da parte della community. Potremmo quindi dire che si tratta di un’evoluzione della situazione attuale, partendo però da una visione diversa del ruolo di Facebook. La differenza sostanziale sta nel maggior coinvolgimento editoriale del social network e, per quanto pragmatica, questa idea presenta alcune criticità.

Facebook e l'intervento umano: un anno di controversie

Fino a oggi Facebook ha cercato di limitare il più possibile l’intervento umano per tutelare la presunta neutralità della piattaforma. Salvo alcune occasioni che hanno richiesto una presa di posizione della compagnia in un senso o nell’altro. E quelle occasioni hanno puntualmente riacceso un dibattito che conosciamo bene: Facebook è o non è un editore? Nonostante la piattaforma abbia ribadito in diverse occasioni il suo status di compagnia tecnologica e non editoriale (non crea contenuti, non commissiona contenuti specifici, ma offre una piattaforma agli utenti per esprimersi), molti attribuiscono un potere editoriale alle decisioni che Mark Zuckerberg ha dovuto prendere negli ultimi mesi.

A maggio del 2016, prima che il problema delle notizie false sui social diventasse uno degli argomenti centrali del dibattito giornalistico e politico, Facebook si è ritrovato al centro della polemica per aver influenzato in maniera editoriale la sua sezione di “trending news”. Per chi non lo ricordasse, grazie alla testimonianza anonima di alcuni ex impiegati della compagnia, il sito di notizie tecnologiche Gizmodo aveva rivelato che la sezione “Trending” non era uno strumento totalmente automatizzato, ma si serviva di un team di giornalisti per filtrare gli argomenti più rilevanti. Questo filtro umano, secondo le accuse, avrebbe privilegiato le notizie progressiste a danno di quelle repubblicane.

L’effetto immediato della polemica ha fatto sì che il controllo della sezione tornasse a essere automatizzato, sotto la supervisione (minima) di una nuova squadra composta principalmente dagli ingegneri che avevano curato l’algoritmo. L’esordio di questa soluzione “non-giornalistica” è stato disastroso: in diverse occasioni le bufale hanno scalato la classifica degli argomenti più discussi, evidenziando la complessità del problema e l’importanza di un controllo umano. Soprattutto se consideriamo che lo scopo della sezione “Trending” dovrebbe essere prettamente informativo. Il dibattito sulla convenienza o meno di lasciare nelle mani di un algoritmo (quindi senza filtro umano) la curation delle notizie è da allora evoluto verso aspetti che inizialmente non erano stati presi in considerazione. Se appena un anno fa, l’oggetto del contendere era la sezione dei trending topic, oggi al centro di questa discussione troviamo tutti i contenuti condivisi sulla piattaforma.

C’è stato un episodio a settembre 2016, di cui abbiamo scritto su Valigia Blu, che potremmo considerare il punto di svolta nel dibattito: la censura dal social network della fotografia storica di Associated Press — vincitrice di un premio Pulitzer — che mostra una bambina vietnamita di 9 anni nuda in fuga assieme ad altri bambini dopo l’esplosione di una bomba al napalm.

Foto di Nick Ut/Associated Press.

Dopo qualche giorno, Facebook ha ripristinato la foto per via della sua importanza storica, ma in un primo momento la compagnia aveva giustificato la sua rimozione reiterata appellandosi alle linee guida sui contenuti e al funzionamento tecnico della piattaforma. L’algoritmo, non avendo gli strumenti per riconoscere il valore giornalistico e storico di quello scatto, aveva identificato la foto come il nudo di un minore e l’aveva quindi rimossa. Rispondendo al giornale norvegese che aveva sollevato la questione, un portavoce di Facebook aveva dichiarato: «Se da una parte riconosciamo che la foto è iconica, rimane difficile stabilire quando si dovrebbe o non si dovrebbe pubblicare una foto di una bambina nuda». Si riferiva a una difficoltà tecnica: quella di creare un algoritmo capace di valutare caso per caso. E prendere una decisione.

Ecco perché, in quei giorni, molti giornalisti del settore hanno avanzato come soluzione un filtro umano di tipo editoriale, o almeno la presenza di un public editor nella compagnia, una figura responsabile a cui rivolgersi in situazioni come queste. Ed ecco perché, sempre in seguito a quell’episodio, molti hanno iniziato a identificare Facebook come una media company, a prescindere da cosa sostenesse il suo creatore.

Leggi anche >> L’odio in politica e la sfiducia nei media fanno più paura delle fake news

È durante la campagna elettorale americana, però, che i giornalisti americani hanno scoperto l’esistenza delle 'fake news' (un concetto che risale al 1925, non proprio una novità). Secondo alcuni, le bufale su Facebook sarebbero addirittura la causa della vittoria di Trump. Poco importa se questa affermazione non trova nessun riscontro nei dati. Da quel momento in poi, le notizie false sono diventate la principale preoccupazione di giornalisti e politici che vorrebbero addirittura intervenire per via legislativa. Molte testate hanno spiegato queste problematiche in una maniera approssimativa e semplicista, riducendo la complessità del fenomeno, insistendo sugli aspetti sensazionalistici non dimostrati e diffondendo allarmismo: l’esatto contrario di quello che dovrebbe fare il buon giornalismo. Il “problema delle fake news” è esso stesso 'fake news'. Lo è nella misura in cui, invece di cercare dati a sostegno di una tesi, si decide piuttosto di alimentare una narrazione basata sull’approssimazione e sul pregiudizio.

Dall’elezione di Trump a oggi, Facebook ha implementato diverse soluzioni, tecnologiche e non, per frenare la diffusione delle notizie false, insistendo però sul suo ruolo di piattaforma e quindi sulla sua posizione neutrale rispetto alle notizie condivise dai suoi utenti. “Facebook non vuole essere l’arbitro del vero e del falso”, è stato detto in diverse occasioni.

Le criticità di un maggior coinvolgimento editoriale di Facebook

Un sistema di controllo come quello proposto obbligherebbe il social network a creare innanzitutto un database (pubblico?) di fonti affidabili e non: una scelta di per sé sufficiente per occupare il posto vacante (almeno nelle democrazie) di “arbitro del vero e del falso”.

Altra perplessità che riguarda la selezione delle fonti è il criterio da seguire per giudicare l’affidabilità di una testata. Tutti i media mainstream sono affidabili? E lo sono sempre a prescindere? È una selezione che verrà aggiornata costantemente? Chi è responsabile di questa selezione?

Pensiamo all’Italia: è Libero una fonte affidabile per il solo fatto di essere una testata registrata? Questo è chiaramente un esempio limite, ma potremmo interrogarci anche sulla reputazione dei giornali nazionali più venduti che prendono quotidianamente “dalla rete” video e notizie non verificate con l’obiettivo di massimizzare i click dei lettori.

Inoltre, se si decide di considerare come fonti affidabili solo i 'media mainstream', questo sistema non sarebbe in grado di individuare le 'fake news' che si propagano attraverso quegli stessi media. Il suo raggio d’azione sarebbe limitato a una tipologia molto precisa di bufale: quelle che non appaiono sui giornali e che vengono pubblicate solo da siti considerati sospetti in partenza. Nei fatti non sarebbe una soluzione orientata a ostacolare le notizie false in quanto tali, ma un modo di restituire ai media il monopolio sulla 'fake news' che tanto sembrano rimpiangere. È anche un problema di definizione: si fa presto a dire 'fake news', ma la disinformazione più pericolosa è quella che coinvolge i media mainstream e la politica.

Un altro aspetto problematico sarebbero poi le scelte editoriali. Sebbene l’intervento umano sembra acquisire sempre maggior importanza, soprattutto dopo l’annuncio di Mark Zuckerberg di aver assunto 3mila persone per controllare che i contenuti trasmessi con Facebook Live rispettino la policy (in questo caso le notizie false non c’entrano nulla), ci potremmo interrogare su quanto sia auspicabile un Facebook che funzioni più come editore che come piattaforma.

Se Facebook dovesse decidere di rispondere in prima persona alla diffusione di bufale online seguendo criteri giornalistico-editoriali e prendendo decisioni quotidiane di selezione delle notizie, ci troveremmo inevitabilmente davanti all’editore più potente del mondo. Alcuni specialisti del settore sono convinti che questa sia già la situazione attuale e anzi, soprattutto negli Stati Uniti, molti giornalisti chiedono a gran voce che il social network ammetta di essere un’impresa editoriale. Ma se Facebook dovesse iniziare a funzionare *realmente* come una “media company” le conseguenze negative potrebbero essere maggiori di quelle positive.

Facciamo un esempio concreto: dopo aver riconosciuto il suo status di media company (“finalmente”, aggiungerebbe il coro) e abbandonato la pretesa di essere una piattaforma neutrale (“non lo è mai stata”, sottolineerebbe qualcuno), Facebook potrebbe decidere di sostenere attraverso scelte editoriali un candidato presidente piuttosto che un altro, potrebbe stravolgere i propri algoritmi (che alcuni definiscono già, a ragione, "gatekeeper moderni") con l’obiettivo di dare maggior rilievo alle notizie che più si avvicinano alla sua agenda politica, anzi, alla sua 'linea editoriale'. Non è forse questo che fanno gli editori di tutto il mondo? E quali sarebbero gli effetti sulla democrazia?

Attenti a ciò che chiediamo”, metteva in guardia Jeff Jarvis all’indomani delle elezioni americane.

La verità è che Facebook è molto di più di un’impresa tecnologica ed è molto di più di un’impresa editoriale. E le sue responsabilità sono, allo stesso modo, più grandi e complesse. Non possono e non devono essere le stesse di un editore, dobbiamo pretendere di più. Così come abbiamo chiesto a Zuckerberg di risolvere un problema più vecchio di internet (le bufale), dovremmo esercitare la stessa pressione per pretendere più trasparenza sull'uso dei nostri dati, su come ci vengono presentate le notizie, su cosa sappiamo dei criteri di selezione algoritmica dei contenuti a cui siamo esposti.

La pallottola d'argento contro le notizie false

Le recenti inquietudini dell'opinione pubblica hanno portato Facebook a cambiare il suo algoritmo con cadenza periodica (l'ultima novità è di questa settimana) e a introdurre strumenti che aiutino gli utenti a riconoscere le fonti poco attendibili e a segnalarle. Ma queste iniziative sembrano avere un esito limitato, anzi in alcuni casi si sarebbero rivelate controproducenti. Esistono pagine di destra in America che si dedicano a diffondere proprio gli articoli che il social network ha etichettato come possibili notizie false, al grido di "Ehi, vogliono censurare questo blog" o "Non vogliono che lo sappiamo, fate subito girare!"

Il fatto, come scrive la ricercatrice danah boyd, è che le compagnie tecnologiche non possono semplicemente "risolvere" il problema delle notizie false su internet. È un problema più grande di loro e che riguarda tutti noi.

"Non voglio sollevare le aziende dalla responsabilità che hanno in questo ecosistema. Ma non produrranno la pallottola d'argento che gli è stata chiesto di produrre. Credo che la maggior parte delle critiche mosse nei loro confronti siano davvero ingenue se pensano che si tratti di un problema facile da risolvere."

Interpretare una realtà nuova usando categorie che appartengono al passato e strumenti legislativi inadeguati sarebbe un passo indietro irresponsabile. Non possiamo sfuggire alla complessità, non ci sono scorciatoie. Le notizie false continueranno a esistere, ma questa può essere un’occasione per migliorare. Migliorare la qualità dei nostri mezzi di informazione, migliorare la nostra cultura informativa (sin da piccoli), accettare le nostre responsabilità in quanto lettori non più passivi ma parte integrante dell’ecosistema mediatico.

Immagine principale: "Relativity" di M.C. Escher

 

Segnala un errore
LINEE GUIDA AI COMMENTI