Diritti Digitali Media Literacy Post

Facebook e Twitter hanno deciso che i politici sono più uguali degli altri

25 Ottobre 2019 15 min lettura

author:

Facebook e Twitter hanno deciso che i politici sono più uguali degli altri

15 min lettura

[Disclaimer: Facebook e Google sono main sponsor del Festival Internazionale del Giornalismo che organizzo a Perugia]

Facebook ha deciso che non sottoporrà a fact-checking le dichiarazioni dei politici. E che permetterà ai politici di sponsorizzare post e contenuti anche se contengono falsità.

Ad annunciarlo è stato Nick Clegg, ex vice premier britannico ora a capo della comunicazione globale del social network: "Non crediamo sia per noi un ruolo appropriato fare da arbitro nel dibattito politico, non vogliamo impedire che il discorso di un politico raggiunga il suo elettorato e sia oggetto di dibattito pubblico". "Tuttavia – aggiunge Clegg – quando un politico condivide contenuti su cui precedentemente è stata fatta una verifica, inclusi link, video e foto, abbiamo in programma di ridimensionare tali contenuti, far visualizzare nel post il fact-checking delle notizie e rifiutarne l'inclusione negli annunci pubblicitari".

Se però il politico riporta in un proprio post quegli stessi contenuti questa procedura non scatterà.

Insomma nel tentativo di rispondere alle pressioni della politica, ancora una volta Facebook imbocca una strada controversa e discutibile.

Già quando ha annunciato che avrebbe affidato a fact-checker indipendenti il compito di contrastare le notizie false diffuse sulla piattaforme, noi esprimemmo i nostri dubbi e la nostra contrarietà. Facebook non avrebbe mai dovuto mettere le mani nella questione su ciò che è vero e ciò che è falso. Sostengono di non voler essere arbitri della verità, e questa sarebbe l'unica posizione giusta da assumere. Ma poi affidano a terze parti, pagandole, un simile compito. Di fatto venendo meno anche a un'altra affermazione più e più volte ripetuta: non siamo media. Il che sarebbe vero, ma pagando terze parti che producono contenuti per contrastare bufale di fatto in qualche modo si è media. L'annuncio allora fu dato in pompa magna: addirittura i comunicati parlavano di lotta alla disinformazione. Sappiamo bene quanto sia complessa, composita, oscura e difficile da identificare la disinformazione. Pensare di contrastarla con un pool di fact-checker ha il sapore della beffa, ancor di più se a conti fatti questa lotta alla disinformazione si risolve nella produzione di articoli che smontano solo bufale conclamate contenute in post, video, foto o articoli di siti come il Corriere della Pera, Il Fatto Quotidaino, e ben si guarda dal contrastare notizie false e disinformazione dei governi, delle testate mainstream, dei politici. Insomma chi ha più potere nell'inquinare e avvelenare il dibattito pubblico.

I contenuti di media mainstream intenti a diffondere notizie odiose, false e distorte sui migranti circolano liberamente su Facebook, ripresi spesso dai politici che a loro volta per le loro attività sui social saranno poi amplificati da altri media mainstream che poi rimetteranno in circolazione sui social quelle stesse falsità, in un circolo vizioso di amplificazione a specchio. Questa sarebbe la lotta alla disinformazione? Ma è chiaro che Facebook fu portato a una simile decisione dalle pressioni continue e scriteriate di politica, media, istituzioni. Per quanto ci riguarda, come Valigia Blu, pensiamo che i social network non devono decidere cosa è falso e cosa è vero.

Ora a questa decisione già controversa segue quella di esonerare i politici dalla procedura di fact-checking e se i contenuti sponsorizzati conterranno bugie e diffamazione verso avversari politici ad esempio, non importa, anche se quel comportamento non rispetta le regole del social. Facebook ha deciso in questo caso di essere neutrale e di lasciare che siano i cittadini a valutare e i media a occuparsi di sottoporre a controllo e verifica quello che i politici diffondono.

Abbiamo un problema gigantesco però: in pratica Facebook sta dicendo che i politici sono più uguali degli altri. Che le policy della piattaforma valgono solo per chi non ha potere: i cittadini che diffondono bufale sono sottoposti a fact-checking, i politici no. Ai cittadini che diffondono disinformazione sul clima non saranno permesse le sponsorizzazioni. Ai politici sì.

Guido Scorza si chiede sul Fatto Quotidiano: "Ma perché questa regola dovrebbe valere solo in relazione ai discorsi pronunciati dai politici? Perché riconoscere ai politici – ammesso che i processi di fact-checking di Facebook siano efficaci e capaci, quindi, di abbattere il rischio di bufale – una sorta di licenza di mentire? Nick Clegg prova a rispondere: “Sarebbe accettabile per la società in generale che una società privata diventi effettivamente un arbitro autoproclamato per tutto ciò che i politici dicono? Non credo che lo sarebbe. Nelle democrazie aperte, gli elettori credono giustamente che, come regola generale, dovrebbero essere in grado di giudicare ciò che i politici si dicono”".

"Buon senso – continua Scorza – e, soprattutto, la consapevolezza che non dovrebbe toccare a una corporation il compito di decidere cosa è giusto e cosa non lo è, né ciò che è vero e ciò che è falso e, quindi, in ultima analisi quali contenuti lasciare accessibili nello spazio pubblico telematico e quali eliminare o, almeno, rendere più difficilmente accessibili. Ma questi principi non dovrebbero riguardare tutta l’informazione che circola su Facebook da chiunque prodotta? Che differenza c’è tra le menzogne di un politico e quelle di un giornalista o, anche, quelle di un cittadino qualsiasi magari tanto seguito da essere in grado di orientare un dibattito più di quanto possa farlo un qualunque politico? E, poi, chi è un politico secondo Facebook?".

La newsletter Popular.info in un post pubblico dei primi di ottobre scriveva che Facebook la settimana precedente, a fine settembre, aveva silenziosamente modificato le sue policy sulla pubblicità per rendere più facile ai politici mentire nei post sponsorizzati. Il martedì successivo la campagna di Trump aveva lanciato un nuovo post sponsorizzato su Facebook che includeva una affermazione già giudicata falsa dai fact-checker indipendenti che lavorano per Facebook.

Un simile annuncio a quanto pare violerebbe le regole sui contenuti falsi nelle pubblicità. Ma Facebook ha modificato le sue policy sulla "misinformation" nella pubblicità, permettendogli di accettare quasi tutto da parte di un politico. Inclusa l'ultima pubblicità diffusa dalla campagna di Trump. Nell'ultima settimana Trump ha aumentato esponenzialmente i suoi investimenti su Facebook, spendendo oltre 1 milione e mezzo di dollari in annunci. Nel video in questione Trump attacca il suo rivale Biden. E afferma: "Joe Biden ha promesso all'Ucraina un miliardo di dollari se avesse licenziato il procuratore che sta indagando sulla compagnia di suo figlio". Da notare che la CNN si è rifiutata di mandare in onda la pubblicità di questo video proprio perché contiene accuse false.

Due società di fact-checking, partner di Facebook, avevano verificato questa affermazione, concludendo che era falsa. Ora le regole di Facebook sulla pubblicità comprendono 32 categorie di "Contenuti vietati", la numero 13 riguarda la "Misinformation". Secondo questa sezione: Facebook vieta pubblicità che includono affermazioni smontate da fact-checker indipendenti, certificati dal Poynter's International Fact-Checking Network. Almeno due partner di Facebook che si occupano di fact-checking hanno sottoposto a verifica l'affermazione di Trump, contenuta in quel video sponsorizzato. Entrambi, Politifact e Factcheck.org, hanno concluso che quella affermazione è falsa.

Ora Facebook, come dimostra Popular.info, ha cambiato le regole, dando semaforo verde a pubblicità come quella di Trump. Inizialmente era proibito tutto ciò che contiene contenuti ingannevoli, falsi o fuorvianti, poi è stato ristretto il campo ai soli contenuti verificati e smontati dai fact-checker indipendenti e infine si è deciso di esonerare comunque i politici anche da questa ultima versione.

Judd Legum di Popular.info ha individuato anche altri annunci a pagamento che contengono affermazioni false: in uno indirizzato a persone anziane si affermava che Trump stava considerando di chiudere il confine meridionale "la prossima settimana", quando in realtà aveva già pubblicamente annunciato che non lo avrebbe chiuso per almeno un anno; un altro contenuto, una truffa ai suoi stessi sostenitori, afferma che c'era tempo fino a mezzanotte per partecipare a un concorso per vincere il "milionesimo cappello MAGA rosso firmato dal presidente Trump". L'annuncio è stato pubblicato ogni giorno per settimane. E ancora un annuncio in cui si dice che i democratici vogliono eliminare il Secondo emendamento. Cosa totalmente falsa.

Anche Twitter in queste stesse settimane ha preso una decisione analoga. Come ha scritto Scott Rosenberg su Axios: "Entrambi hanno codificato un sistema a doppio binario per la libertà di espressione: uno per i politici o leader mondiali, uno per tutti gli altri".

Biden ha chiesto ai media mainstream e alle piattaforme social di fermare il video di Trump che dice bugie su di lui. Facebook ha respinto la richiesta, come abbiamo visto cambiando le sue stesse policy e permettendo così la sponsorizzazione di contenuti che contengono bugie e falsità. Anche Twitter ha mantenuto quel video.

La senatrice Elizabeth Warren, candidata alle presidenziali per i democratici, ha lanciato una provocazione su Facebook promuovendo una pubblicità in cui si dice che Zuckerberg sostiene Trump, chiarendo subito dopo che è una notizia falsa e di averlo fatto per mostrare le falle della decisione della piattaforma di dare via libera alle bugie dei politici. Anche in questo caso Facebook ha deciso di tenere il video.

Facebook su Twitter ha replicato a Warren facendo notare che la stessa pubblicità veniva trasmessa su diversi canali TV e che la Federal Communications Commission non vuole che le TV censurino la parola dei candidati. Aggiungendo di essere d'accordo e che bisogna lasciare decidere agli elettori e non alle aziende.

Nel frattempo la senatrice Kamala Harris su Twitter ha chiesto di sospendere l'account di Trump per i continui attacchi, tra gli altri, al whistleblower che ha svelato la vicenda sull'Ucraina. Dopo alcune settimane Twitter ha risposto dicendo che non lo avrebbe fatto e ha annunciato una nuova regola, avendo identificato una categoria di utenti "leader mondiali" che "sono o rappresentano un governo / funzionario eletto, sono in corsa per cariche pubbliche o sono considerati per una posizione governativa", che hanno anche più di 100.000 follower e sono verificati. In teoria, i leader mondiali dovrebbero seguire le regole che si applicano a tutti gli altri.

Ciò significherebbe nessuna minaccia di violenza, nessuna promozione del terrorismo, nessun coinvolgimento in aggressioni mirate e nessuna aggressione nei confronti di persone di una determinata razza, religione, sessualità o genere. Ma Twitter afferma che potrebbe non intervenire su questa tipologia di contenuti anche se i politici infrangono le regole a causa della "notiziabilità" dei loro commenti. La società afferma che si riserva il diritto di limitare la promozione di tali tweet e di sottolineare in modo evidente che il contenuto ha violato le regole di Twitter. Ma non lo ha mai fatto da quando a giugno ha annunciato questa decisione.

In linea generale, continua Rosenberg, i forum online hanno sempre dovuto affrontare la questione "fino a dove si può arrivare, dove mettere un limite, tracciare una linea". Ma ora che il gioco di troll vs moderatore si gioca sul palcoscenico della politica nazionale, né Facebook né Twitter hanno intenzione di giocare. La loro soluzione: ritagliarsi alcuni diritti speciali per i politici.

Dunque su Facebook i politici possono dire quello che vogliono sia nei post che nei contenuti sponsorizzati. Possono anche riportare integralmente affermazioni già etichettate come false altrove. Quello che non possono fare è mentire rispetto al processo elettorale, per esempio sulla data delle elezioni o le regole del voto. La loro pubblicità non può includere volgarità o imprecazioni (una pubblicità di Trump è stata bloccata per questo motivo), non possono incorporare post già contrassegnati come falsi dai fact-checker. Per quanto riguarda le altre policy sono tenuti a rispettare gli standard della community per esempio quelli inerenti all'hate speech.

Questo ovviamente rende tutto molto confuso, complicato oltre che creare una odiosa disparità di trattamento. Proprio lì dove chi ha più potere di influenza sull'opinione pubblica con le sue affermazioni dovrebbe con maggiore severità osservare le regole che valgono per tutti. Un politico può riprendere una affermazione già identificata come falsa senza nessuna conseguenza, ma un utente normale non può riprendere con un proprio post per esempio quelle stesse false affermazioni da una pubblicità di un politico senza violare le regole di Facebook, anche se può condividere la pubblicità.

Dunque entrambe le piattaforme di fatto hanno deciso di dividere i loro utenti in due gruppi e di dare a uno di loro una libertà fondamentalmente più ampia di violare le norme etiche e sociali nei loro post e non essere penalizzati per questo.

YouTube, di proprietà di Google, ha invece dichiarato che le sue norme non sono basate su "chi" pubblica un contenuto ma su "cosa" viene pubblicato. Quindi regole uguali per tutti. Anche i politici sono sottoposti alle stesse regole di tutti gli altri.

La trasparenza è fondamentale

La settimana scorsa Mark Zuckerberg ha tenuto un discorso alla GeorgeTown University. Tra le altre cose ha parlato dell'importanza della libertà di espressione, di dare voce alle persone. "Avere sempre più persone in grado di condividere le proprie esperienze e prospettive è fondamentale per costruire una società più inclusiva". Però non ha spiegato come questa disparità di trattamento possa garantire a tutti la stessa libertà di espressione. Tra l'altro come ha notato David Kaye, special rapporteur per l'ONU sulla libertà di opinione e di espressione, non c'è niente in questo speech a proposito del tema cruciale che è la trasparenza.

In queste settimane abbiamo assistito a decisioni radicali senza che fossero precedute da comunicazioni in trasparenza sulle ragioni e le motivazioni che hanno portato a determinate scelte. Quando queste comunicazioni ci sono state, è perché giornali e cittadini si sono attivati per chiedere conto. Nel caso della chiusura della pagine e degli account legate a CasaPound e a movimenti estremisti, l'azienda solo successivamente ha dato una spiegazione pubblica. Avrebbe dovuto farlo contestualmente. Da tempo la piattaforma si era attivata contro suprematismo bianco, razzismo e nazionalismo. Come Valigia Blu stavamo seguendo questa iniziativa da mesi e tra l'altro in quei casi la comunicazione è avvenuta in modo ufficiale sul blog di Facebook contestualmente alla rimozione. Dunque non ci siamo sorpresi quando questa decisione è stata applicata anche in Italia, ma ripeto la trasparenza è fondamentale, anche per evitare speculazioni e complottismi vari, e qui purtroppo questo aspetto è mancato.

Va ancora una volta precisato che la decisione di Facebook non riguarda specifici contenuti, ma come riporta l'Agenzia giornalistica italiana (AGI): "Secondo quanto apprende Agi da fonti della società, la decisione di Facebook sarebbe stata presa dopo una lunga analisi dei comportamenti adottati dai due movimenti politici e dai loro militanti in attività sia online che nella offline, ovvero nella vita reale (ndr, grassetto mio perché in molti ancora pensano che sia stato dovuto a contenuti specifici condivisi sui social). Facebook non ha fornito dettagli su post specifici incriminati, o azioni violente valutate. Ha precisato inoltre che non ci sarebbe alcuna motivazione ideologica, ma che, ritenendo quei gruppi e quei partiti promotori di violenza e di discriminazione, su Facebook e Instagram non possono più avere spazio".

Il fatto che questa comunicazione non sia pubblica, ma che appunto sia appresa dall'Agenzia da fonti della società, è proprio uno delle criticità che rilevo. È assolutamente necessaria la massima trasparenza da parte della piattaforma rispetto alle decisioni che prende, proprio in nome della libertà di espressione che sta tanto a cuore a Mark Zuckerberg.

Nei giorni scorsi un'altra decisione controversa ha portato alla chiusura o alla rimozione di contenuti senza alcuna spiegazione di diverse pagine a sostegno dei curdi.

Su questo ho chiesto spiegazioni direttamente a Facebook e qui riporto la loro risposta in cui ammettono che nel caso specifico si è trattato di un errore: "Abbiamo regole chiare che definiscono ciò che può e non può essere condiviso su Facebook. Queste regole non consentono a organizzazioni o individui che proclamano missioni violente o sono coinvolti in azioni violente di avere una presenza su Facebook. Rimuoviamo anche i contenuti che esprimono supporto o elogio nei confronti di gruppi, leader o individui coinvolti in queste attività. Alcuni dei contenuti rimossi per violazione di questa policy sono stati eliminati per errore. Anche se non permettiamo la presenza su Facebook di organizzazioni o individui che proclamano missioni violente o sono coinvolti in azioni violente, è comunque consentito discuterne. Spesso si verificano casi difficili da interpretare – soprattutto quando si tratta di valutare se ci si trovi di fronte a elogi e sostegno o ad una semplice discussione – e a volte capita di sbagliare. Abbiamo ripristinato i contenuti rimossi per errore e ci siamo scusati con gli amministratori delle Pagine. Su Facebook diamo alle persone la possibilità di fare appello alle nostre decisioni e ripristiniamo i contenuti se erroneamente rimossi, sia in caso di appello, sia se siamo noi stessi a identificare degli errori. Nel nostro Rapporto sulla Trasparenza chiunque può visualizzare quanti contenuti vengono ripristinati".

A proposito di quest'ultima affermazione per me la questione non si pone sulla quantità, ma su chi e cosa viene rimosso/bannato. E mi riferisco ad operazioni diciamo così di "massa" come avvenuto in queste ultime settimane.

Che fare?

Tornando al tema di questo mio post ossia al trattamento dei discorsi dei politici. Vale la pena chiarire ulteriormente, perché temo stia passando l'idea che la soluzione sia imporre alla piattaforma la rimozione delle bugie, delle falsità. Qui entriamo in campo minatissimo.

E a centrare il punto a mio avviso è Casey Newton su The Verge. "Certamente sarebbe bello se i politici rimanessero fedeli alla verità nella loro campagna pubblicitaria. E viviamo in una nazione che ha leggi sulla verità nella pubblicità, applicate dalla Federal Trade Commission. Ma come Facebook, anche la FTC si rifiuta di valutare l'adesione alla verità della pubblicità politica. E in un caso all'inizio di questo decennio in cui uno Stato ha tentato di imporre la verità nella pubblicità politica, la legge è stata annullata da un giudice federale". Il giudice motivò così la sua decisione: "Non vogliamo che il governo (cioè la Commissione elettorale dell'Ohio) decida quale sia la verità politica – per paura che il governo possa perseguitare coloro che la criticano. Piuttosto, in una democrazia, gli elettori dovrebbero decidere".

Più o meno la stessa motivazione per cui Facebook non vuole intervenire nella valutazione del contenuto politico. E aggiunge Newton, trovandomi totalmente d'accordo: se non vogliamo che lo Stato possa decidere sui discorsi politici, a maggior ragione non dovremmo volere che una piattaforma privata con oltre due miliardi di utenti possa farlo. Fa sorridere ma anche preoccupare poi che a chiedere a Facebook di intervenire fermando le bugie dei politici, siano gli stessi preoccupati per le dimensioni e lo strapotere della piattaforma.

Che fare allora? Per quanto mi riguarda come già detto si dovrebbe partire da un punto fermo: stesse regole per tutti. Non può esserci per i politici una sorta di immunità dalle policy delle piattaforme. Il social network cinese TikTok ha deciso di escludere completamente la pubblicità politica. Una proposta simile è stata avanzata da Josh Constine su Techcrunch: se Facebook, Twitter, Snapchat e YouTube non vogliono essere gli arbitri della verità negli annunci delle campagne politiche, dovrebbero smettere di venderle. L'approccio di Facebook funzionerebbe, secondo Constine, in una società democratica dove tutto va come dovrebbe, ma purtroppo – dice – non è così: i candidati sono disonesti, i cittadini non sono ben istruiti e i media non sono obiettivi. In questo contesto affidarsi ai media che dovrebbero contrastare le bugie dei politici, alle capacità degli elettori di distinguere vero e falso è ancora una volta da parte di Facebook porre una fiducia idealista nella nostra società. Chiaramente, aggiunge Constine, anche le regole per le campagne pubblicitarie politiche in TV andrebbero riviste.

Ho chiesto a Bruno Saetta, che per Valigia Blu si occupa di diritti e cultura digitale, un parere su cosa fare:

"L’errore che si fa comunemente nel discutere di piattaforme del web – mi scrive Saetta – è di trattarle come fossero media, laddove evidentemente non lo sono nel senso comune del termine. I media tradizionali (TV, giornali) gestiscono le informazioni sulla base del contenuto. Un editore legge cosa c’è scritto e decide se pubblicare o meno un articolo. Una piattaforma del web non “legge” il contenuto (almeno non nel senso comune del termine), e in particolare non decide se pubblicare (diffondere) un articolo sulla base di ciò che c’è scritto, ma in base a parametri del tutto differenti (viralità, possibilità di legare ad essa pubblicità, ecc…). Purtroppo i legislatori capiscono i media, e quindi trattano le piattaforme da media, imponendo loro obblighi da media. Finendo così nel costringerle a “leggere” i contenuti e stabilire, in base ai contenuti, se diffonderli o meno. In questo modo, però, si cancella il vantaggio delle piattaforme che, a differenza dei media, sono le uniche che consentono l’esercizio della libertà di espressione a tutti i cittadini, senza alcuna distinzione. La regolamentazione imposta dai legislatori, di fatto comprime questo aspetto (e finisce per favorire i soggetti con maggior potere) trasformando le piattaforme in Tv più grandi. I problemi evidenziati dalle piattaforme (hate speech, fake news, etc…) dovrebbero essere risolti a un livello differente, non a livello di responsabilità editoriale. Alimentando la neutralità delle piattaforme, ad esempio. Da un lato va anche bene una autoregolamentazione delle piattaforme, purché le regole siano trasparenti e incentrate sul rispetto dei diritti umani. Dall’altro, però, come ha sostenuto il relatore dell’ONU David Kaye, occorre che i legislatori ripensino completamente l’approccio alla regolamentazione delle piattaforme, non imponendo obblighi di filtraggio (che finiscono facilmente nella censura dei più deboli), imponendo trasparenza alle piattaforme, rafforzando l’immunità per le piattaforme rispetto ai contenuti (che favorisce il rispetto dei diritti umani online) e ritagliandosi un ruolo specifico come supporto alla regolamentazione delle piattaforme (autorità indipendenti, meccanismi di reclamo, ecc...)".

La politica non dovrebbe chiedere alle piattaforme, come sta facendo, di farsi arbitri di verità. D'altra parte Facebook oggi non si troverebbe in questa situazione se non avesse ceduto alle pressioni politiche su questo fronte (tutto è partito dal dibattito distorto e fuorviante sulle 'fake news' e la vittoria di Trump), attivandosi con il fact checking. Facebook e Twitter non dovrebbero concedere ai leader politici un trattamento diverso dal resto dei cittadini. Le loro policy vanno applicate tutte a tutti allo stesso modo, senza distinzioni di sorta. Non dovrebbe esistere un privilegio del più forte.

Foto in anteprima via vp

 

 

 

 

 

 

Iscriviti alla nostra Newsletter

  Consenso all’invio della newsletter: Dai il tuo consenso affinché Valigia Blu possa usare le informazioni che fornisci allo scopo di inviarti la newsletter settimanale e una comunicazione annuale relativa al nostro crowdfunding.
Come revocare il consenso: Puoi revocare il consenso all’invio della newsletter in ogni momento, utilizzando l’apposito link di cancellazione nella email o scrivendo a info@valigiablu.it. Per maggiori informazioni leggi l’informativa privacy su www.valigiablu.it.
Segnala un errore