Hate speech, etica e responsabilità giornalistica

[Tempo di lettura stimato: 8 minuti]

L’hate speech è una delle sfide più importanti che oggi il giornalismo si trova ad affrontare. Di solito giornalisti e politici sono allarmati dalla facilità e velocità con cui messaggi carichi d’odio riescano a penetrare, a diffondersi e a essere dominanti su Internet, e in particolare sui social network. Ma meno attenzione viene prestata a quegli organi di informazione che alimentano intolleranza e rabbia, facendosi quasi sostenitori e portavoce ideologici di forze e pensieri razzisti (dalla xenofobia agli estremismi religiosi) e a come i giornalisti, anche nel modo in cui danno le notizie, a loro volta possano essere cassa di risonanza di messaggi che propagano odio, scrive Cherian George su Ethical Journalism Network (Ejn).

Leggi anche >> Facci, l’Ordine, Mentana e il giornalismo

Per hate speech si intende ogni espressione che disprezza in forma aperta e gravemente offensiva un gruppo ben identificabile (si pensi a una comunità religiosa, un gruppo etnico o una minoranza di genere), mettendo in pericolo o danneggiando i membri. Le discussioni su come gestire i discorsi d’odio perdono spesso il loro obiettivo specifico, si comincia a fare confusione tra le definizioni di cosa è classificabile come hate speech, legittimando spesso proposte ingiustificate di censura. C’è differenza, spiega Ethical Journalism Network, tra:

  • Istigare a fare del male sotto forma di violenza o discriminazione negativa, stigmatizzando le persone che vogliamo colpire.
  • Utilizzare espressioni che feriscono il sentire di una comunità, inclusi i comportamenti e i valori in cui i suoi appartenenti credono.
  • Criticare politici e altri personaggi pubblici, esponendoli alla pubblica riprovazione.

Nel primo caso si può parlare correttamente di hate speech: sono quelle tipologie di espressione che, secondo gli standard dei diritti umani, giustificano un intervento legale. Il secondo solleva questioni etiche, ma generalmente non dovrebbe essere soggetto a restrizioni legali, visto che la libertà di espressione dovrebbe includere il diritto di mettere in dubbio le ortodossie religiose o altre credenze profondamente radicate. Nel terzo caso, a parlare di campagne d'odio sono proprio le particolari figure attaccate (politici, militanti, rappresentanti delle istituzioni, forze dell'ordine, ecc.) che, definendo le critiche ricevute messaggi offensivi e intolleranti, utilizzano l’hate speech come giustificazione per un altro obiettivo, bloccare e controllare i media.

Da un lato, ogni tentativo di etichettare le forme di dissenso non offensive come “linguaggio d’odio” per mettere a tacere critiche delle istituzioni e dei valori dominanti e promuovere forme di controllo e bavaglio, va segnalato e arginato. Dall’altro, però, lo spauracchio della censura e il richiamarsi alla libertà di espressione non possono diventare un modo per non riconoscere quando il giornalismo si fa amplificatore e diffusore di linguaggio e discorsi discriminatori e stigmatizzanti e si sottrae a un confronto sulla qualità e la deontologia professionale.

I giornalisti dovrebbero, invece, prestare continua attenzione alle questioni etiche, prosegue Ejn, e riflettere sul proprio ruolo, osservare da vicino alcune tendenze preoccupanti che meritano massima attenzione e trovare soluzioni. Contrastare il linguaggio d’odio è solo una delle strategie. I media potrebbero investigare sui collegamenti tra i diversi attori in Rete che sono alla base delle moderne campagne d’odio, tracciare i flussi di denaro e di potere, capire chi trae benefici dall’istigazione all’odio, alla discriminazione e alla violenza. Come nel caso della criminalità, la corruzione e l’abuso di potere politico, coprire le campagne d’odio richiama i più alti principi e le competenze più profonde del giornalismo.

L’odio religioso

Uno degli ambiti più problematici e controversi è costituito dall’odio religioso. C’è una tensione, scrive Ejn, tra la necessità di proteggere dall’istigazione e incitamento alla violenza contro le comunità religiose e la libertà di poter criticare le ortodossie religiose e le credenze radicate.

Si tratta di una questione che si gioca su più piani e su equilibri sottili: il modo in cui i media parlano dei musulmani, ad esempio, può variare a seconda delle cornici utilizzate, se si fa riferimento a loro in quanto immigrati, parte di una minoranza vulnerabile, considerati nazione per nazione, o in quanto membri di una religione mondiale con poteri enormi. Se si parla dell’intolleranza che guadagna terreno in molte comunità musulmane o delle ripercussioni del fanatismo e dell’estremismo nei loro confronti.

Un attacco ai valori in cui crede una comunità religiosa è hate speech? Dove la libertà di espressione diventa discorso d’odio? Se dei video (o vignette) rappresentano l'Islam come una religione omicida, i governi dichiarano di non poter legittimamente limitare tale espressione, perché un attacco a un sistema di credenze non rappresenta tecnicamente una chiamata alle armi nei confronti dei suoi credenti. Molti, tuttavia, sostengono che tale denigrazione della loro religione faccia parte di un più ampio attacco ideologico che rende più difficile per loro vivere nella società. Inoltre, al di là di cosa dica la legge, i giornalisti potrebbero astenersi dal fare attacchi scorretti a valori e credenze.

Allo stesso tempo, si dovrebbe riflettere sui motivi per cui l’odio legato al nazionalismo estremo sia spesso trascurato nelle discussioni sull’hate speech. Probabilmente la fedeltà intensa ed esclusiva alla nazione, il patriottismo, tendono a essere percepiti come virtù al contrario di quanto accade se sentimenti simili sono associati alla razza o alla religione. Riflessioni che potrebbero permettere anche di capire per quale motivo sempre più cittadini sono attratti da campagne d’odio.

La notiziabilità dell’odio

Anche gli organi di informazione svolgono un ruolo importante nella diffusione di messaggi di intolleranza. Non mancano circostanze in cui i giornalisti sono accusati di diffondere discorsi d’odio: a volte, alcuni scrivono commenti provocatori e offensivi, altre, riportano dichiarazioni di politici (o altre figure pubbliche) piene di offese gratuite verso altre persone. Le polemiche hanno una notiziabilità maggiore. Ma, riportando, acriticamente affermazioni apertamente intolleranti e cariche di disprezzo, i giornalisti finiscono per accreditare messaggi d’odio che altrimenti non avrebbero avuto risonanza e credibilità.

Si tratta di una questione complessa perché il confine tra riportare una notizia, invitando la società a riflettere sui cosiddetti “agenti di odio”, e diventare strumento quasi inconsapevole di propaganda dei loro messaggi è sottile. Può essere difficile trovare il giusto equilibrio soprattutto se spesso i media hanno più appetito per le polemiche. E di questo approfittano alcune figure politiche “abili a guadagnare la copertura gratuita dei media”, presenti più per la vis polemica con potenziale di viralità che per il valore politico delle loro affermazioni. Figure politiche create dai media, in altre parole. Ejn fa l’esempio dei messaggi discriminanti nei confronti di musulmani e messicani del Presidente Donald Trump negli Stati Uniti, delle posizioni molto discusse di Pauline Hanson, leader del partito One Nation, in Australia, delle dichiarazioni estremiste dei diversi gruppi religiosi in India, che hanno spesso titoli e coperture altisonanti. E facendo un esempio qui in Italia: la presenza mediatica di Matteo Salvini, leader della Lega Nord.

L'ex leader dell'Ukip, Nigel Farage, figura fondamentale nel far montare la copertura mediatica sull'immigrazione durante la campagna per la Brexit – foto: Philip Toscano / PA

I media hanno un ruolo ancora più attivo nell’alimentare discorsi d’odio durante le campagne elettorali. Si tende a coprire le elezioni più come una corsa di cavalli che come un contesto di confronto politico. In vista del referendum sulla Brexit, i media britannici, ad esempio, hanno dato maggiore risalto alle polemiche all’interno del Partito conservatore o alle posizioni anti-immigrati di Ukip che alle questioni sollevate dal referendum, dando al partito di Nigel Farage una legittimazione politica probabilmente costruita mediaticamente.

Ogni volta che i media, anche inavvertitamente, si prestano alla manipolazione da parte di politici e altre figure in nome della difesa del paese, della cultura, della religione e della razza, possono provocare dei danni nella società. La scarsa comprensione del potenziale impatto delle parole e delle immagini possono portare a contenuti giornalistici che incoraggiano l'odio e la violenza.

Cosa fare? Come riuscire a comprendere cosa è accettabile e cosa non è tollerabile riportare? Come valutare quando un’affermazione è hate speech? I giornalisti dovrebbero prendere in considerazione i contesti in cui le persone esprimono i loro punti di vista, concentrarsi non solo su quello che viene detto, ma su cosa intendevano dire con le loro affermazioni e quali erano i loro obiettivi. È responsabilità dei giornalisti fare sì che ogni persona possa esprimere il proprio parere, ma avere libertà di parola – un diritto garantito a tutti, compresi politici e personaggi pubblici – non significa dare carta bianca per mentire o diffondere calunnie o incoraggiare ostilità e violenza contro un qualsiasi gruppo specifico.

Negli Stati Uniti alcuni media hanno cercato di verificare quasi in tempo reale le affermazioni di Donald Trump, giocando un ruolo importante nel respingere “una politica della paura fondata sul noi-contro-loro”. Probabilmente il fact-checking non ha avuto alcun impatto sui sostenitori di Trump o sul risultato delle elezioni, ma verificare e contestualizzare le informazioni è parte fondamentale del giornalismo ed è una delle strade da seguire per ridare centralità alla politica rispetto alla viralità di una notizia. E se è vero che le notizie corrono veloci, che è sempre più complicato verificare in tempo reale, questo non può essere una giustificazione per non verificare e non interrogarsi sull'etica del giornalismo.

Contare fino a cinque prima di pubblicare

Ejn ha elaborato un test con alcune domande alle quali una redazione e i giornalisti dovrebbero rispondere prima di pubblicare affermazioni per collocare ciò che viene detto e chi lo dice in un contesto etico.

via Ethical Journalism Network
  • Contestualizzare lo status e la reputazione di chi parla

Per non diventare strumento di propaganda di politici e personaggi pubblici abili a utilizzare i media per dare visibilità alle proprie affermazioni e suscitare accese discussioni e divisioni a supporto delle proprie posizioni di parte e piene di pregiudizi, i giornalisti dovrebbero prestare maggiore attenzione al contesto e alla reputazione di chi sta parlando. Dire qualcosa di clamoroso o scandaloso non rende un’affermazione di per sé una notizia. Una figura pubblica, capace di agitare e manipolare le folle, non dovrebbe ricevere copertura mediatica solo perché in grado di creare un clima negativo o fare commenti non dimostrati.

In particolare, i giornalisti dovrebbero controllare chi è che parla, analizzare le parole utilizzate, verificare fatti e affermazioni e giudicare con attenzione le intenzioni e l’impatto dei singoli interventi. Compito del giornalista non è, infatti, adottare una posizione contrapposta a queste affermazioni, ma verificare tutto, chiunque stia parlando.

  • Considerare la portata delle affermazioni

Prima di pubblicare i giornalisti devono considerare la frequenza e anche la capacità di diffondersi di un’affermazione offensiva. Quanto può diventare virale se la pubblico? E prima ancora ci si deve chiedere: è un’invettiva momentanea o si tratta di diversi messaggi d’odio ripetuti nel tempo? È un modello di comportamento o qualcosa di estemporaneo? La ripetizione di un messaggio può essere un indicatore di una strategia deliberata per generare ostilità nei confronti degli altri.

  • Segnalare gli obiettivi delle affermazioni

Quando si decide di riportare un’affermazione, i giornalisti dovrebbero segnalare quali sono gli obiettivi di chi parla, le sue particolari posizioni e convinzioni, l’impatto sui soggetti attaccati, in quanto individui e comunità, in modo tale da poter dare ai lettori tutti gli elementi per poter contestualizzare le dichiarazioni e farsi un’idea più completa. Come e quali benefici ne trarrà chi parla? Le sue affermazioni vogliono danneggiare deliberatamente gli altri?

  • Valutare contenuti e stile delle affermazioni

Oltre agli obiettivi, i giornalisti dovrebbero valutare se le affermazioni sono provocatorie, nello stile e nei contenuti. C’è una differenza enorme tra un discorso fatto al pub e uno in un luogo pubblico, davanti a un pubblico eccitabile. Non è un crimine avere idee e opinioni offensive né rendere pubbliche tali opinioni, ma prima di riportarle o scriverle, ci si dovrebbe chiedere: queste espressioni possono essere pericolose? Possono portare a un procedimento penale a norma di legge? Possono incitare alla violenza o intensificare l’odio verso gli altri?

  • Avere il polso del clima economico, sociale e politico

I giornalisti, infine, devono tener conto del particolare clima economico, sociale e politico e saper prevedere il probabile impatto delle affermazioni quando l’atmosfera pubblica è già surriscaldata. Ad esempio, il periodo di campagna elettorale, quando i partiti politici si sfidano e sfruttano l’attenzione pubblica per diffondere i propri messaggi, è un momento in cui maggiormente trovano spazio commenti provocatori e di parte. E allora responsabilità dei giornalisti ancor di più è verificare se quanto detto sia corretto, fondato sui fatti e sensato e, soprattutto, riconoscere il particolare momento in cui quelle affermazioni vengono diffuse e il contesto sul quale hanno un impatto: qual è l’effetto immediato sui gruppi o persone chiamati in causa? Chi è influenzato negativamente? Creano allarme sociale ingiustificato? Si tratta di dichiarazioni pensate per rendere le cose peggiori o migliori?

Una checklist del giornalismo etico

Ejn suggerisce, infine, una lista di domande che un giornalista dovrebbe farsi.

Quando ci si trova davanti a storie in cui si utilizza l’odio politico, per evitare di fare sensazionalismo, chiedersi:

  • Può essere offensiva, ma innanzitutto è una notizia? È mediaticamente rilevante? Qual è l'intenzione di chi parla?
  • Quale sarà l'impatto se la pubblico?
  • C’è il rischio di agitare gli animi e incitare alla violenza?
  • Le affermazioni riportate sono basate sui fatti e sono state verificate?

Nel raccogliere e riportare materiale controverso, i giornalisti dovrebbero evitare una corsa a pubblicare. È utile fermarsi, anche solo per alcuni momenti, per riflettere sul contenuto di quello che stanno pubblicando:

  • Abbiamo evitato il ricorso a cliché e stereotipi?
  • Abbiamo fatto tutte le domande pertinenti e necessarie?
  • Siamo stati sensibili verso nostro pubblico?
  • Siamo stati attenti al linguaggio che abbiamo utilizzato?
  • Le foto raccontano la storia senza ricorrere alla violenza e al voyeurismo?
  • Abbiamo utilizzato diverse fonti e incluso le voci delle minoranze pertinenti alla storia raccontata?
  • Quanto scritto è conforme agli standard stabiliti dai codici editoriali ed etici?

*Grazie a Luciano Picchi per la segnalazione del post di Ethical Journalism Network

Immagine in anteprima via Ethical Journalism Network

Segnala un errore
LINEE GUIDA AI COMMENTI

La multa a Google: le accuse, la difesa e la guerra commerciale Usa-Ue

[Tempo di lettura stimato: 10 minuti]

Il 27 giugno la Commissione europea ha inflitto a Google (e Alphabet Inc, società madre di Google) una multa di 2,42 miliardi di euro (qui il comunicato stampa) per abuso di posizione dominante. Secondo il Commissario alla concorrenza, Margrethe Vestager, Google avrebbe favorito il suo servizio di comparazione di prodotti (shopping) rispetto a servizi concorrenti, sfruttando la posizione dominante nell'ambito del mercato dei motori di ricerca. In tal modo avrebbe danneggiato i consumatori, forzati a utilizzare il suo servizio.

A seguito delle indagini, durate circa 7 anni, è risultato che Google ha posto in posizione di preminenza i suoi prodotti, visualizzati nella parte superiore della pagina di ricerca. Nel contempo avrebbe retrocesso i concorrenti nei suoi risultati di ricerca.

La multa tiene conto della durata e della gravità dell’infrazione ed è calcolata sui ricavi del servizio comparativo di Google nei 13 paesi dell’Unione. Ricordiamo che nel 2016 Google ha avuto ricavi per circa 90 miliardi di euro. Il provvedimento richiede, altresì, che l’azienda cessi le sue pratiche illegali entro 90 giorni, a pena di ulteriori sanzioni.

Le indagini contro Google

Attualmente sono tre le istruttorie contro Google per violazione delle norme antitrust. Si tratta di iniziative inquadrabili nell'ambito del Digital Single Market, quindi tese alla creazione di un mercato digitale comune europeo che sia sicuro per i consumatori e che consenta una sana competizione tra le aziende.

Le istruttorie a carico di Google riguardano:

  • L’integrazione tra i servizi verticali (un servizio di ricerca verticale è un motore di ricerca specializzato in settori specifici, es. i viaggi) all'interno del motore generalista, poiché visualizzerebbe in modo diverso i link ai propri servizi così favorendoli rispetto ai concorrenti (istruttoria definita, appunto, con la multa citata prima, qui un riassunto dell’intera storia dietro a questo procedimento).
  •  

  • Restrizioni ai produttori di dispositivi Android e operatori di rete mobili, per rafforzare la posizione dominante nella ricerca generica, pre-installando il servizio Google Search come predefinito o esclusivo (qui la comunicazione di addebiti).
  •  

  • Restrizioni a siti web di terze parti in merito alla possibilità di visualizzare sui loro siti pubblicità proveniente dai concorrenti di Google, proteggendo così la posizione dominante nel mercato della pubblicità di ricerca online (qui la comunicazione di addebiti).
  • Margrethe Vestager, Commissario alla concorrenza

    Le istruttorie sono iniziate all'epoca del Commissario alla concorrenza Almunia, il quale era però tacciato di non essere adatto a comprendere la complessità del mercato di riferimento. Almunia cercò in tutti i modi un accomodamento con Google, non ottenendo granché.

    Col nuovo Commissario, l’ex vicepremier danese Margrethe Vestager, i ricorrenti (decine di aziende in concorrenza con Google) hanno tirato un sospiro di sollievo. In pochi mesi il nuovo Commissario ha smosso le carte e sulla scrivania dei dirigenti di Google è giunto rapidamente il formale atto di accusa (qui il comunicato). Nel comunicato si precisa che la posizione dominante non è un problema in quanto tale, ma le aziende hanno la responsabilità di non abusare della propria posizione dominante restringendo la competizione nel mercato di riferimento o quelli limitrofi. Infine, Vestager ha avviato anche una nuova istruttoria sulle presunte restrizioni di licenza di Android verso i produttori di smartphone.

    La Federal Trade Commission americana assolve Google

    In seguito alle azioni della Commissione europea anche la Federal Trade Commission americana aveva avviato indagini formali contro il gigante della ricerca online. Dopo 19 mesi di istruttoria, però, la FTC ha assolto Google. Beth Wilkinson, consulente esterno per la FTC, ha dichiarato che indubitabilmente Google ha messo in atto azioni aggressive per ottenere un vantaggio rispetto ai concorrenti, pur tuttavia il compito della Commissione federale è quello di tutelare la concorrenza, non i singoli concorrenti e non risultano prove che Google abbia effettivamente impedito la concorrenza nel settore della ricerca onlineRimanevano, comunque, alcune preoccupazioni per le quali Google ha accettato di modificare il suo modo di agire.

    Il punto dolente, anche in relazione alle accuse della Commissione europea, riguarda l’introduzione di Universal Search che avrebbe modificato l’algoritmo di ricerca di Google favorendo i prodotti e servizi dell'azienda americana a scapito dei concorrenti. Per la FTC tali modifiche all'algoritmo sono giustificate dall'obiettivo di innovare, migliorando alla fine il prodotto di Google e l’esperienza dei suoi utenti. Per questo ha deciso di chiudere il caso.

    La difesa di Google

    La difesa di Google è basata sulla considerazione che esiste comunque sempre una serie di servizi e prodotti concorrenti, e già tale presenza è indicativa del fatto che l'azienda non viola le regole e non danneggia la concorrenza. Ci sono sempre più servizi online e i consumatori recuperano le informazioni da una miriade di fonti diverse, anche da Facebook e Twitter, ma anche, con riferimento al mercato del mobile, dalle stesse applicazioni, piuttosto che da Google Search.

    Google sostiene, inoltre, di fornire un prodotto innovativo, flessibile, semplice da usare, che fornisce velocemente le informazioni cercate e che quindi favorisce i consumatori. Insomma, il loro prodotto è il migliore, per questo è il più usato.

    Posizione dominante e abuso

    Se si guarda alla posizione di Google e in particolare alla quota di mercato occupato oggi, in effetti è ovvio pensare che Google si trovi in posizione dominante. Google detiene oltre l’80% della quota di mercato nell'ambito del search (fonte NetMarketShare) – mentre ad agosto 2016 aveva il 95% circa – e raccoglie oltre l’88% della pubblicità in questo settore. Il search engine più conosciuto lascia ormai solo le briciole agli altri motori di ricerca (vedi Motori di ricerca di Wikipedia), al punto che tanti sono usciti dal mercato (es. Yahoo, che ormai si appoggia a Bing), e altri semplicemente rimangono sconosciuti al grande pubblico.

    Avendo tali dati si potrebbe, quindi, concludere, che esiste effettivamente un problema di dominanza sul mercato da parte di Google, come scrive Jonathan Taplin in Move Fast and Break Things. Ma la posizione dominante (che è palese) non vuol dire necessariamente che ci sia un monopolio, negativo per il mercato e per i consumatori.

    Una quota dell’80% nel search advertising implica l’esistenza di un 20% che va ad altri motori di ricerca, quindi non c’è un vero e proprio monopolio. Esistono altri motori di ricerca ed è possibile utilizzarli, cioè c’è possibilità di scelta. Alcuni preferiscono Bing, altri sono contrari all'eccessiva raccolta di dati effettuata da Google e quindi utilizzano motori di ricerca alternativi e più tutelanti per gli utenti. Ad esempio, DuckDuckGo è pensato specificamente per proteggere l’utente dal tracciamento e dalla “bolla filtrante”, motore di ricerca bandito dal governo cinese proprio per l’elevato grado di protezione fornito agli utenti.

    Un altro aspetto che viene enfatizzato per dimostrare la pericolosità del “monopolio” di Google, è la grandezza dell’azienda che impedisce ad altri servizi concorrenti di entrare nel mercato. In realtà anche questo aspetto non è così pacifico.

    È vero che in alcuni casi si creano barriere all'ingresso di nuovi concorrenti in un mercato. Un esempio classico è l’introduzione di filtri a carico degli Internet Service Provider (ISP), previsto come obbligo dalla "Direttiva copyright" in consultazione al Parlamento europeo. La normativa prevede che gli intermediari dell’informazione debbano predisporre strumenti tecnici per monitorare (in accordo con i titolari dei contenuti) l’immissione in rete di contenuti in violazione del copyright, e quindi rimuoverli. Tali strumenti sono degli specifici software il cui costo non è indifferente (pensiamo a Content-ID creato da Google e utilizzato sulla piattaforma YouTube). Una norma del genere in effetti favorisce gli attori già presenti nel mercato di riferimento e che sono già sufficientemente grandi  da potersi permettere investimenti sostanziosi per la realizzazione (o l’acquisto) di strumenti tecnici di questo tipo. Ma questo è un obbligo legislativo che di fatto altera la competizione nel mercato, ma non è conseguenza di una posizione dominante di un attore di quel mercato.

    Un monopolio, inoltre, ha come conseguenza il congelamento dell’innovazione. In realtà nel settore tecnologico è difficile poter sostenere che manchi innovazione. Ad esempio quando Snapchat ha introdotto delle novità, Facebook è stata costretta a creare anch'essa funzionalità simili per evitare di perdere mercato. Vi è una costante corsa all’innovazione per non perdere quote di mercato. Ed è esattamente quello che accade con Google che da anni innova il suo motore di ricerca rendendolo sempre più efficiente e maggiormente in grado di comprendere le domande degli utenti e fornire risposte sempre più complete e affidabili.

    Il problema, infatti, non è l’esistenza di una posizione dominante, ma l’eventuale abuso di tale posizione e ciò accade quando il potere sul mercato non è contendibile.

    Il prodotto "motore di ricerca"

    I motori di ricerca in origine non erano altro che una scarna schermata con dieci link blu, i rimandi ai siti dove gli utenti, secondo l’algoritmo del motore, avrebbero potuto trovare le informazioni cercate. L’evoluzione dei motori di ricerca è stata continua e ha lasciato indietro chi non ha saputo reggere la concorrenza. Nel 2011 il vicepresidente della sezione ricerche di Yahoo, Shashi Seth, sostenne che per andare incontro agli utenti era necessario reinventare la ricerca: “La risposta, per farla semplice, è di reinventare la ricerca. Il nuovo orizzonte per la ricerca sarà focalizzarsi sul fornire le risposte che servono agli utenti senza che essi interagiscano con una pagina di tradizionali link blu”.

    Infatti, oggi i motori di ricerca hanno realizzato una profonda integrazione verticale, proponendo una serie di informazioni direttamente all'utente. Ad esempio, se io cerco su Google “empire state building” (ma anche con Bing), ottengo una serie di informazioni ulteriori (come anche l’altezza dell’edificio), indicando eventualmente la loro fonte (es. Wikipedia).

    L’integrazione verticale pone seri problemi. Da un lato, è ovvio che il motore di ricerca potrebbe essere tentato di favorire i suoi servizi a scapito di altri (prendendo informazioni da, ad esempio, Google Maps, Google Viaggi, Google Shopping), ma anche perché l’utente, se trova l’informazione tra quelle inserite nella pagina di ricerca (es. l’altezza dell’edificio) non ha più alcuna necessità di spostarsi sul sito fonte (effetto di sostituzione).

    Che è poi l’accusa che viene portata avanti dagli editori nei confronti di Google News, anche se in realtà Google News inserisce uno snippett (titolo più uno o due righe), per cui è difficile sostenere che in quel caso si realizza un vero effetto di sostituzione. Casomai l’utente scorrendo i titoli conviene che quello specifico articolo non gli interessa, per cui comunque non lo avrebbe letto.

    In questa prospettiva la società britannica StreetMap, fondata nel 1997, ha sostenuto di essere stata schiacciata con l'arrivo di Google nel mercato della mappatura online nel 2007. Quando Google ha iniziato a inserire una mappa nella pagina dei risultati di ricerca, secondo Kate Sutton, direttore commerciale di StreetMap, è iniziato il declino del traffico verso i servizi della sua azienda.
    Ma un’Alta Corte inglese ha stabilito che non esistono prove sufficienti per dimostrare che Google ha determinato degli effetti anti-concorrenziali nel settore della mappatura online, e che comunque le modifiche al motore di ricerca (l’introduzione della mappa nella pagina del search) possono essere considerare un miglioramento per il mercato del search engine.

    Appare, altresì, complicato anche semplicemente stabilire qual è il mercato di riferimento. Perché se ci concentriamo su uno specifico settore, come ad esempio la ricerca di prodotti (shopping), esistono altri motori di ricerca specializzati, oppure siti web (Amazon) che entrano in concorrenza con Google. Gli stessi social network si servono di motori interni che sottraggono quote a Google. Oggi i motori di ricerca non sono l'unica porta di accesso ai siti web, anzi gli utenti raggiungono i siti attraverso una miriade di percorsi (in particolare attraverso i social).

    Oltre tutto nell'ambito del mercato dei motori di ricerca non esiste alcuna barriera (lock-in) al passaggio da un prodotto ad un altro (a differenza di altri settori, ad esempio i social). Un utente può in qualsiasi momento utilizzare un motore di ricerca concorrente. È, quindi, difficile sostenere che Google sia dominante perché crea ostacoli al passaggio ad altro prodotto concorrente. Più probabilmente lo è perché è il prodotto che maggiormente incontra il favore degli utenti.

    Procedendo oltre, dovremmo anche definire quando siamo in presenza di una discriminazione di altri servizi. Nel momento in cui il compito di un motore di ricerca è quello di fornire all'utente una risposta nel più breve tempo possibile, è ovvio che l'integrazione verticale non è altro che un modo di andare incontro alle esigenze degli utenti, perché così il motore di ricerca diventa più efficiente. Imporre un principio generale di search neutrality a Google (o a Bing o a Yahoo) vorrebbe dire imporre all'azienda americana di smettere di fornire direttamente le risposte e linkare i servizi concorrenti, riportando il motore di ricerca al tempo della pagina con i link blu, cosa che comporta un ovvio danno al motore di ricerca con vantaggio dei competitori.

    In quanto azienda che esercita la libertà di impresa, il motore di ricerca, invece, ha tutto il diritto di effettuare le scelte strategiche che ritiene utili per migliorare il proprio prodotto, compreso, quindi, inserire servizi proprietari nell'ambito dei risultati del motore di ricerca.

    L’accusa nei confronti di Google è di non rispettare un generale principio di neutralità nella ricerca, nel senso che favorirebbe i propri prodotti o servizi a scapito di quelli concorrenti. Il rispetto del principio di search neutrality potrebbe congelare l’innovazione dei motori di ricerca.

    Paradossalmente, in questo senso, la normativa antitrust, il cui scopo è di tutelare i consumatori, imporrebbe regole che impediscono al motore di ricerca di andare incontro alle esigenze dei consumatori. È questo il motivo in base al quale l’FTC ha sostanzialmente assolto Google.

    Le accuse della Commissione

    La Commissione europea, in realtà, accusa Google di aver fornito un trattamento diverso ai servizi di comparazione dei prezzi rispetto al proprio. Quello che la Commissione ha rilevato non è tanto l’integrazione verticale di servizi differenti all'interno del motore di ricerca generalistico, ma il fatto che tale integrazione venga svolta secondo modalità anti-concorrenziali (abuso). E cioè, il servizio Shopping di Google è sistematicamente posto nella parte alta della pagina di ricerca, e così viene visto immediatamente dall'utente.

    Di contro, i servizi concorrenti sono assoggettati alla regole del motore di ricerca generalistico, e quindi finiscono invece in pagine successive alla prima (es. pagina 4). Quindi si verifica una situazione nella quale l’utente vede facilmente il servizio Shopping di Google ma non i concorrenti (a meno che non scorra diverse pagine), con evidente favoritismo per il proprio servizio. Google, infatti, tende a indirizzare l'utente, che cerca un prodotto, al venditore, tramite gli annunci pubblicitari  o direttamente tramite Google Shopping (che generano ricavi), piuttosto che tramite il motore generalista (azione che non porta ricavi a Google). Google, quindi, sfrutta il motore di ricerca generalista per favorire un suo prodotto specialistico.

    Secondo la Commissione, Google Shopping in tal modo avrebbe aumentato il traffico 45 volte nel Regno Unito, 35 in Germania, 14 in Italia. Teniamo presente che Google Shopping nasce dall’acquisito del servizio Froogle, che era decisamente inefficiente (come risultato anche da mail interne di Google).

    Tali risultati emergerebbero da circa sette anni di indagini da parte della Commissione, in particolar modo analizzando le differenze tra i vari paesi, verificando il traffico di Google Shopping e dei concorrenti man mano che veniva introdotto nei vari paesi europei.

    La Commissione ha ovviamente ricevuto e tenuto conto delle difese di Google, in particolare evidenziando che non è utile fare un raffronto con Amazon e Ebay. L'argomento utilizzato spesso a difesa del gigante della ricerca è infatti l'esistenza di prodotti simili in concorrenza, come appunto Amazon, che anzi è probabilmente anche più usato per lo shopping. Ma si tratta di servizi differenti (merchant platform, cioè che vendono prodotti) rispetto a quello di comparazione dei prezzi di Google Shopping. Ciò che va analizzato è il rapporto con gli altri servizi di comparazione prezzi (come Nextag, PriceGrabber, Foundem).

    Google, ovviamente, ha annunciato ricorso.

    Guerra commerciale Ue vs Usa

    La multa al gigante della ricerca (e della pubblicità) online è l’atto finale di solo uno dei tanti procedimenti ormai avviati contro le multinazionali americane. È sempre del Commissario alla concorrenza Vestager la multa di 13 miliardi di euro per i benefici fiscali concessi ad Apple in Irlanda.

    Si tratta anche di un atto profondamente politico, per avvertire i giganti americani che le regole che si applicano in Europa sono quelle europee, in tutti i campi, dalle protezione dei dati personali (vedi la riforma del regolamento per la protezione dei dati personali) fino alla tassazione.

    Non dimentichiamo che già un gigante americano ha dovuto cedere all’antitrust europeo. La Microsoft, multata a più riprese per varie pratiche anti-concorrenziali, fu costretta a modificare le proprie pratiche commerciali in Europa.

    È sintomatica la procedura di infrazione aperta per aver imposto, all'interno del sistema operativo Windows, Internet Explorer quale browser predefinito. Alla fine Microsoft accettò di consentire l’utilizzo di browser alternativi, inserendo il famoso ballot screen per la selezione del browser. Il risultato è sotto gli occhi di tutti. A dicembre del 2009, anno in cui la Commissione multò Microsoft, Internet Explorer aveva una quota di mercato del 55%, mentre oggi è di circa il 4% (qui quote di mercato browser), lasciando così spazio ai concorrenti, Firefox e Google Chrome principalmente.

    Una cosa è certa, comunque la si pensi, la guerra commerciale tra Usa e Unione europea si sta rapidamente scaldando.

    (Immagine anteprima via Techcrunch)

    Segnala un errore
    LINEE GUIDA AI COMMENTI

    Il consumo di suolo in Italia rallenta, ma non si ferma

    [Tempo di lettura stimato: 7 minuti]

    L'Istituto Superiore per la Protezione e la Ricerca Ambientale (ISPRA) ha pubblicato l'edizione 2017 del rapporto sul consumo di suolo (Consumo di suolo, dinamiche territoriali e servizi ecosistemici). Il rapporto descrive l'evoluzione e lo stato di questo fenomeno in Italia, analizzando le trasformazioni urbane che sono avvenute a livello nazionale e il loro impatto sul territorio.

    Il consumo di suolo in Italia

    Il consumo di suolo è la sottrazione di aree agricole e naturali che avviene con l'espansione del tessuto urbano sul territorio. È ciò che chiamiamo comunemente "cementificazione", ma riguarda anche le coperture in asfalto delle infrastrutture stradali.

    Leggi anche >> Come abbiamo distrutto il Belpaese e cosa possiamo fare per salvare ciò che resta

    L'anno scorso avevamo pubblicato un approfondimento su questo tema. Avevamo parlato dei costi ambientali, ma anche economici, dovuti all'eccessivo consumo di una risorsa importante come il suolo. Avevamo spiegato, inoltre, come i suoi effetti debbano essere esaminati al di là delle percentuali di superfici libere perdute. Soprattutto in aree come la pianura padana, dove dal dopoguerra a oggi la crescita delle aree residenziali, industriali e commerciali, nell'intorno delle grandi città ma anche di molti centri di medie e piccole dimensioni, ha modificato in modo profondo l'assetto del territorio e il rapporto tra zone urbane e rurali.

    Abbiamo accennato al tema del paesaggio, che è strettamento collegato a quello del consumo di suolo. La quantità e la qualità di ciò che è stato costruito in questi decenni hanno entrambe inciso, spesso negativamente, sulla immagine del territorio. Il paesaggio ha subito quella che alcuni osservatori chiamano "banalizzazione", per descrivere l'impoverimento della sua immagine e della sua forma (non solo ai margini delle città ma anche nelle campagne), impressa anche dall'intervento dell'uomo nel corso dei secoli. Senza considerare il degrado rappresentato da edifici incompiuti e lottizzazioni abbandonate.

    Abbiamo poi ricordato le cause del consumo di suolo: le politiche urbanistiche adottate dal dopoguerra a oggi. Il mancato contenimento della rendita immobiliare che ha spesso orientato lo sviluppo edilizio in senso speculativo. Le dinamiche demografiche e quelle legate al mercato immobiliare e al settore delle costruzioni. Le scelte adottate dalle amministrazioni comunali all'interno dei piani regolatori. E una prassi di pianificazione del territorio frammentata tra i diversi Comuni.

    Dal dopoguerra a oggi il suolo consumato in Italia è aumentato del 184%

    Nella presentazione del rapporto Stefano Laporta, presidente designato dell'ISPRA, scrive:

    Il consumo di suolo con le sue conseguenze, rallenta ma non accenna a fermarsi. Il rallentamento non sufficiente della sua velocità, dovuto alla crisi economica degli ultimi anni, rende evidente che non vi sono ancora strumenti efficaci per il governo del consumo di suolo, e ciò rappresenta un grave vulnus in vista della auspicata ripresa economica, che non dovrà assolutamente accompagnarsi ad una ripresa della artificializzazione del suolo

    L'ISPRA, insieme alle Agenzie per la Protezione dell’Ambiente regionali e delle province autonome, ha realizzato una cartografia del consumo di suolo sul territorio nazionale, con dati aggiornati al 2016, esaminando in particolare il periodo compreso tra novembre 2015 e maggio 2016.

    In questo periodo la velocità di consumo di suolo è stata di 3 metri quadrati al secondo (circa 30 ettari al giorno). Negli anni 2000, in una fase di grande espansione edilizia, ha toccato gli 8 metri quadrati al secondo, passando poi a 6-7 tra il 2008 e il 2013 e a 4 tra il 2013 e il 2015. Si registra dunque un significativo rallentamento, ma non ancora un arresto.

    La percentuale di suolo consumato, sull'intera superficie nazionale, è il 7,64% (l'aggiornamento ha permesso di definire meglio questo dato, che nel rapporto dell'ISPRA dello scorso anno era fissato al 7%). Negli anni '50 era il 2,7%. Un incremento, a oggi, del 184%. È un po' come se avessimo completamente ricoperto una superfice pari, all'incirca, alla Liguria e alle Marche.

    La regione con la percentuale maggiore di suolo consumato è la Lombardia (12,96%), seguita dal Veneto con il 12,21%. Sopra al 10% c'è la Campania, mentre tra l'8 e il 10% si collocano Lazio, Emilia Romagna, Liguria, Puglia e Friuli-Venezia-Giulia.

    Il consumo di suolo delle Regioni. La linea rossa indica la media nazionale. (Fonte: ISPRA)

    Il consumo di suolo non è distribuito in modo omogeneo sul territorio. Si concentra in quelle aree (le pianure, le zone costiere, i fondovalle) dove la conformazione del terreno agevola la crescita delle aree urbanizzate. A livello nazionale è consumato il 23,2% della superficie a 300 metri dalla costa e l'11,9% tra gli zero e i 300 metri di quota. Tra le Regioni, per esempio, il suolo consumato tra gli 0 e i 300 metri di quota in Lombardia sale al 18,5%, rispetto al 12,96 a livello regionale.

    I "costi nascosti" del consumo di suolo

    Consumare suolo significa perdere una risorsa che svolge importanti funzioni. Si parla di "servizi ecosistemici" per definire tutti i benefici che noi riceviamo dall'ambiente e che possono essere compromessi dal suo eccessivo sfruttamento.

    Il suolo ospita una quota rilevante della biodiversità presente sulla Terra. Costituisce il supporto per lo sviluppo della biomassa vegetale ed è quindi la risorsa primaria per l'agricoltura. Ha un ruolo rilevante nel ciclo dell'acqua, che assorbe e filtra nel suo percorso verso le falde sotterranee (per questa ragione l'impermeabilizzazione diminuisce la capacità del suolo di assorbire e regolare il flusso dell'acqua durante le precipitazioni). Il suolo partecipa ai cicli biogeochimici globali, come il ciclo del carbonio. È un carbon sink, cioè un sistema capace di immagazzinare il carbonio atmosferico, principalmente attraverso la vegetazione. Per questo oggi si ritiene che una corretta gestione dei suoli possa contribuire al contenimento del riscaldamento globale, causato dall'aumento della concentrazione atmosferica di gas serra, soprattutto anidride carbonica.

    Alcuni metodi di valutazioni economica dei servizi ecosistemici permettono oggi di quantificare, in termini monetari, il valore di queste funzioni. Quindi, i costi economici che devono essere sostenuti in seguito alla loro perdita. Già lo scorso anno l'ISPRA aveva svolto delle stime relative al consumo di suolo avvenuto tra il 2012 e il 2015. In questo nuovo rapporto l'Istituto aggiorna queste cifre, calcolando i costi del suolo consumato tra il 2012 e il 2016.

    Si tratta, come scrive il rapporto, di «stime indicative e preliminari» che esprimono i «costi annuali aggiuntivi» che dovremo sostenere dal 2017 in poi. A livello nazionale, le stime collocano questi costi tra 625,5 e 907,9 milioni di euro l’anno (tra 30591 e 44400 euro per ogni ettaro di suolo consumato).

    Come precisa l'ISPRA:

    Le stime economiche ottenute non considerano la totalità dei servizi ecosistemici, ma solo una loro parte. I “costi nascosti” del consumo di suolo, quindi, potrebbero essere ben maggiori rispetto ai valori riportati.

    La funzione che incide maggiormente su questi costi è la produzione agricola (45%, se si considera il valore massimo dell'intervallo stimato).

    (Fonte: ISPRA - Sistema Nazionale per la Protezione dell'Ambiente)

    La nuova legge sul consumo di suolo e le sue criticità

    Il rapporto si sofferma anche sulla legge sul contenimento del consumo del suolo e riuso del suolo edificato, approvata lo scorso anno alla Camera e che dovrebbe iniziare a essere discussa in Senato. Come già aveva fatto l'anno scorso, l'ISPRA segnala che la legge in discussione presenta una particolare criticità nelle definizioni dei termini impiegati, tra le quali le stesse definizioni di «consumo di suolo» e di «superficie agricola, naturale e seminaturale».

    Scrive il rapporto che le definizioni «appaiono limitative, non considerando il consumo di suolo in tutte le sue forme e rappresentando allo stesso tempo un potenziale ostacolo al suo reale contenimento». Dal calcolo del suolo effettivamente consumato verrebbero escluse alcune tipologie di superfici:

    Le aree destinate a servizi di pubblica utilità di livello generale e locale, le infrastrutture e gli insediamenti prioritari, le aree funzionali all’ampliamento di attività produttive esistenti, i lotti interclusi, le zone di completamento, gli interventi connessi in qualsiasi modo alle attività agricole.

    Queste eccezioni determinerebbero una stima del suolo consumato inferiore alla percentuale reale. Gli autori aggiungono inoltre che «la procedura di definizione dei limiti è estremamente complessa e che non sono stabilite le percentuali di riduzione da raggiungere nel corso degli anni».

    Quanto suolo continueremo a consumare in Italia?

    Il 2050 è l'anno per il quale l'Unione Europea ha fissato l'obiettivo del consumo di suolo netto zero. Immaginando uno scenario "ideale" di diminuzione progressiva e lineare, con «interventi normativi significativi e azioni conseguenti», l'ISPRA stima che entro il 2050 potremo aver consumato in Italia altri 1635 chilometri quadrati di superficie libera. Se la velocità media di consumo si mantenesse invece sui valori del periodo 2015-2016 avremmo perso altri 3270 chilometri quadrati (una superficie pari circa a quella della Valle d'Aosta). Il terzo scenario prevede che, in seguito alla ripresa economica (e quindi del settore edilizio), il consumo di suolo ritorni immediatamente ai ritmi dei decenni scorsi, fino a consumare nell'ipotesi peggiore altri 8326 chilometri quadrati.

    Sono scenari "virtuali", ma utili per farci capire l'impatto nel lungo periodo. Quale prevarrà tra questi? Come detto, in questo momento, stiamo consumando suolo a una velocità molto più bassa di quella che si registrava all'apice della "bolla immobiliare" degli anni 2000. Eppure, se continuasse a questa velocità, il consumo di suolo nel lungo periodo sarebbe ancora significativo.

    Andrea Arcidiacono, vicepresidente dell'Istituto Nazionale di Urbanistica, ricorda nel rapporto che i piani regolatori dei comuni lombardi, attualmente vigenti, «contengono previsioni di trasformazione per usi urbani di suoli liberi pari a oltre 50 mila ettari». Un potenziale consumo di nuovo suolo superiore a quello che si è verificato in Lombardia tra il 1999 e il 2009, in un periodo di grande espansione edilizia.

    A maggio la Lombardia ha approvato  una integrazione al Piano territoriale regionale. Il Piano deve stabilire le soglie di riduzione di consumo di suolo a cui si dovrebbero attenere Province e Comuni. La modificazione del Piano regionale lombardo restituisce ai Comuni il potere di pianificazione urbanistica. Ma permette loro anche di stabilire nuove previsioni di suoli urbanizzabili, nel rispetto di un "bilancio ecologico del suolo" che tuttavia considera come già consumate anche le aree che i piani regolatori classificano come edificabili, ma che sono ancora libere. Queste aree sfuggirebbero alle soglie di riduzione prescritte dal Piano regionale. Così, tutte le previsioni contenute nei piani regolatori comunali non verrebbero calcolate come nuovo consumo. Si tratta in sostanza, secondo Arcidiacono, di un «artefatto normativo» che permetterebbe ai comuni "meno virtuosi" di confermare le trasformazioni urbane già previste nei piani.

    Del resto, se in questo istante stiamo sacrificando meno aree agricole e naturali che in passato, lo dobbiamo in massima parte alla crisi delle settore edilizio, più che alle decisioni delle amministrazioni locali. Commentando nel rapporto il caso del Veneto Anna Marson, della Università IUAV di Venezia, nota:

    Non è dunque sufficiente rallentare il consumo (a questo ha già pensato il mercato). È necessario in primo luogo cambiare la logica dell’intervento pubblico, finanziando soltanto interventi che non comportino nuovo consumo di suolo e che contribuiscano invece a recuperare le aree già consumate in stato di degrado, e togliere legittimità a un nuovo consumo di suolo che oramai – in questo contesto – non serve davvero più ad alcuna esigenza, né sociale né economica.

    Sono in molti a spingere perché il Parlamento approvi al più presto in via definitiva la legge sul consumo di suolo oggi ferma al Senato. Ma per essere davvero incisiva la legge dovrebbe recepire i dati e le osservazioni contenute nel rapporto dell'ISPRA. Sono necessari provvedimenti chiari ed efficaci, sia a livello nazionale che regionale, per fermare quel consumo di nuovo suolo che «non serve davvero più ad alcuna esigenza, né sociale né economica».

     

    Segnala un errore
    LINEE GUIDA AI COMMENTI

    Interland: il gioco di Google che prepara i bambini alla vita digitale

    [Tempo di lettura stimato: 2 minuti]

    Qualche giorno fa Google ha presentato un progetto di educazione digitale e alfabetizzazione alle notizie rivolto ai più piccoli che si propone di insegnare loro come vivere la rete in maniera sicura e coscienziosa, attraverso giochi e corsi guidati. Per adesso è disponibile solo in lingua inglese, ma vista l'importanza dell'argomento abbiamo deciso di spiegarvi lo stesso in cosa consiste.

    La cittadinanza digitale è un argomento di cui ci siamo già occupati su Valigia Blu, siamo convinti che sia importante coltivare la capacità dei bambini di utilizzare la rete in modo responsabile. Internet rappresenta una delle sfide educative più significative per insegnanti e genitori che oggi si trovano a educare i cittadini di domani.

    Viviamo in un periodo di transizione, nel quale una generazione, cresciuta in un'era pre-connessa, deve insegnare potenzialità e rischi di una delle rivoluzioni più potenti dell’ultimo secolo a una generazione che è nata in un’era iper-connessa dandola per scontato. Ed è per questo che il progetto di Google, Be Internet Awesome, si rivolge sia ai bambini che agli adulti (insegnanti o genitori).

    Il cuore della proposta giovanile è un videogioco platform chiamato Interland, accessibile online da qualsiasi dispositivo, che attraverso una serie di livelli porta il giocatore a confrontarsi con tematiche come il phishing, l'importanza della privacy, la gentilezza nelle interazioni e l'empatia.

    Il gioco è ambientato in un universo narrativo astratto composto da quattro regni principali, ognuno dei quali propone un insegnamento differente (rispetta e sii gentile con gli altri, non credere alle informazioni false, condividi con cautela, proteggi la tua privacy). Il sistema di controllo del personaggio è intuitivo, così come la dinamica di gioco e i diversi ostacoli che vengono poco a poco presentati lungo il cammino. Immerso in una grafica poligonale moderna e attraente, il giocatore affronta la rappresentazione astratta di hacker, bulli, fake e disinformatori e interiorizza gli insegnamenti per una corretta cittadinanza digitale.

    È piacevole da giocare anche per un adulto (abbiamo provato tutti i livelli) e nonostante la sua vocazione educativa e il target a cui si rivolge non risulta affatto infantile né stucchevole.

    Come abbiamo già detto, Be Internet Awesome si propone di sensibilizzare non solo i piccoli, ma anche gli adulti. È importante che i bambini ricevano stimoli dalle loro figure di riferimento che li aiutino a essere gentili, rispettosi, intelligenti, attenti e prudenti online, così come da sempre si è insegnato a esserlo 'offline'.

    La parte del progetto rivolta a insegnanti e genitori è un programma educativo di alfabetizzazione digitale, sviluppato in collaborazione con la Internet Keep Safe Coalition e fondato sugli stessi principi che abbiamo visto nel gioco online, che può essere usato liberamente nelle scuole o a casa.

    L'interesse e il coinvolgimento dei genitori nell'educazione digitale dei figli è cruciale: non si tratta di insegnare ai bambini a usare i gadget tecnologici (come qualcuno di voi avrà già pensato, nella maggior parte dei casi succede proprio il contrario), ma di far capire loro quali sono i pericoli, quali i benefici e in che modo l'uso corretto di Internet possa migliorare o pregiudicare la nostra salute e la nostra sicurezza.

    Non si può pensare di affrontare la questione dell'educazione digitale semplicemente proibendo l'accesso a internet. Sarebbe come rifiutarsi di insegnare a un bambino come si attraversa la strada per il solo fatto che non gli è consentito uscire di casa solo o guidare un'automobile.

    Segnala un errore
    LINEE GUIDA AI COMMENTI

    Facci, l’Ordine, Mentana e il giornalismo

    [Tempo di lettura stimato: 7 minuti]

    L'Ordine dei Giornalisti della Lombardia ha sospeso il giornalista Filippo Facci per due mesi per un pezzo pubblicato l'anno scorso sul quotidiano Libero, in cui spiegava i motivi per cui odia l'Islam e i musulmani. Facci, tra l'altro, scriveva:

    Io odio l’Islam, tutti gli islam, gli islamici e la loro religione più schifosa addirittura di tutte le altre, odio il loro odio che è proibito odiare, le loro moschee squallide...

    L'Ordine ha motivato il provvedimento affermando che «il linguaggio utilizzato appare non ammissibile per un giornalista professionista che scrive su un quotidiano di diffusione nazionale». Secondo l'Ordine Facci avrebbe «compromesso la stessa dignità della professione ridotta a grancassa dell'ostilità e del livore».

    Il Consiglio disciplinare scrive che Facci ha respinto l'accusa di razzismo, ma aggiunge che:

    ...non deve valutare se Filippo Facci sia o meno razzista, ma se l'articolo da lui scritto appaia in linea con le regole che i giornalisti si sono date per evitare la diffusione di scritti che possono ledere la dignità delle persone appartenenti a razze o religioni diverse da quella maggioritaria e possano rafforzare e legittimare nei lettori opinioni di natura razzista. Le affermazioni contenute nell'articolo hanno un evidente carattere razzista e xenofobo.

    In sostanza: con un linguaggio volgare condito di insulti Facci ha preso di mira tutti i membri di una religione, senza distinzione di correnti, scuole di pensiero, nazionalità.

    Nel rispondere a queste osservazioni il giornalista di Libero scrive su Il Post:

    Ho espresso il personale diritto di poter odiare l’Islam, tutti gli Islam, dunque gli islamici e la loro religione che giudico addirittura peggiore di tutte le altre: perché – anche su questo sono stato chiarissimo, durante il processino – io le religioni le detesto tutte, alla maniera dei razionalisti inglesi.

    Facci ricorda infatti di aver espresso «critiche durissime anche contro il Papa e il Vaticano e questo senza che nessuno mi denunciasse all’Ordine».

    In quel caso però Facci non aveva espresso critiche contro il Vaticano specificando di odiare tutti i cattolici. Né aveva rivolto a tutti i fedeli di questa religione gli stessi insulti diretti, in quell'editoriale, ai musulmani.

    È vero quello che scrive Facci:

    (il razzismo) è l’idea che la specie umana sia divisibile in razze biologicamente distinte – con diverse capacità intellettive, valoriali o morali – con la convinzione che un raggruppamento razziale possa essere superiore a un altro.

    Tecnicamente il razzismo è questo, la definizione riportata da Facci è corretta. Anche l'Ordine sbaglia nello scrivere «razze diverse». "Razza" è un termine che non si dovrebbe utilizzare nemmeno per condannare le manifestazioni contemporanee del razzismo, perché le razze umane non esistono. La biodiversità umana, a differenza di quella di altre specie, non si può rappresentare attraverso la categoria di razza, perché è più complessa e sfumata.

    Ma se per essere definiti "razzisti" fosse necessario propugnare la superiorità di un gruppo di esseri umani su un altro sulla base del vecchio razzismo scientifico, allora oggi nessuno sarebbe razzista. Eppure molti continuano a manifestare intolleranza contro gruppi nazionali (o religiosi) diversi. Per questo oggi usiamo il termine "razzismo" per definire qualsiasi espressione di odio verso altri gruppi religiosi o nazionali considerati inferiori, incompatibili, ostili.

    A rigore quello espresso da Facci non è odio razziale, ma è comunque odio (rivendicato, nelle sue stesse parole) nei confronti dei membri di una religione che appartengono a moltissime nazionalità diverse da quella italiana (la nazione islamica più popolosa è l'Indonesia). Facci non ha espresso neanche un odio etnico, contro una specifica etnia o nazionalità, o più di una, ma solo perché ha manifestato e rivendicato un odio indifferenziato nei confronti di 1 miliardo e 800 milioni di persone.

    Facci, in questa circostanza, ha dato sfogo alla sua antipatia verso tutte le religioni prendendo di mira tutti i musulmani. E nell'immaginario collettivo italiano, o europeo, il musulmano è lo straniero. Perché di origine non-italiana è in effetti la grandissima parte dei musulmani che vivono in Italia. In più, questo odio è messo nero su bianco in un momento storico in cui le vicende del terrorismo e dell'Isis portano all'attenzione pubblica la presenza delle comunità islamiche in Occidente, chiamate in causa come un rischio per la sicurezza. In questo momento storico per molti, semplicemente, "Islam = terrorismo". Come può un giornalista non cogliere questi elementi?

    Se si dichiara un odio del tipo di quello rivendicato da Facci, contro una categoria religiosa come quella dell'Islam, si fa e si alimenta un discorso pubblico obiettivamente e praticamente xenofobo.

    E non è necessario nutrire generiche paure verso tutti gli stranieri per poter essere considerati xenofobi. Facci respinge infatti anche l'accusa di xenofobia perché questa, dice, è una «generica paura verso lo straniero». Ma nessuno di fatto si dichiara apertamente xenofobo, tantomeno in questi termini.

    Partiti e movimenti politici considerati xenofobi in Occidente di norma non diffondono odio e pregiudizi nei confronti di altri europei o occidentali, ma solo verso persone che provengono da continenti, paesi, aree geografiche considerati, di volta in volta, per ragioni diverse, incompatibili con "i nostri valori" o con la "cultura occidentale" o le religioni dei paesi euro-occidentali. E Facci, nell'articolo incriminato, parla infatti di «gente che non voglio a casa mia».

    Questi gruppi possono essere religiosi (i musulmani), etnici (Rom) o nazionali (Marocchini, Albanesi). Ma le motivazioni alla base di idee e sentimenti xenofobi, e delle loro manifestazioni politiche, sono sempre le stesse.  Sentimenti di superiorità etnica, culturale, religiosa, eccetera, che si mescolano per produrre un risentimento rivolto verso specifici gruppi di persone.

    Come può un giornalista non cogliere il fatto che si sta rivolgendo a un pubblico, il proprio pubblico di lettori, che leggeranno quelle parole sulla base delle proprie idee? Senza considerare nemmeno minimamente quali siano le motivazioni interiori dell'autore e il suo non-dichiararsi razzista né xenofobo. Un quotidiano come Libero, con una precisa linea editoriale e culturale, sa benissimo quali sono queste idee, e sa molto bene che pubblicare un editoriale come quello di Facci significa "strizzare l'occhio" verso queste idee e confermarle. Per questo l'Ordine segnala che questi scritti possono «rafforzare e legittimare» le opinioni dei propri lettori e diventare una "grancassa".

    Ieri il direttore del TG La7 Enrico Mentana, in un post pubblicato su Facebook, scrive di difendere Facci dalla «Fanta Inquisizione dell'Ordine dei giornalisti»:

    E nei commenti a questo post, trasforma il "caso Facci" in una questione di diritto di opinione e di libertà di pensiero.

    Ma è scorretto e ingannevole presentare questa vicenda come un esempio di violazione della libertà individuale di opinione. Filippo Facci non è stato spedito in carcere per le sue idee. La libertà di pensiero di Facci-cittadino non c'entra nulla e non è messa in discussione.

    È perciò inappropriata e fallace la solita, retorica, premessa, sul «non ne sottoscrivo nemmeno una riga ma...», che ricorda una famosa citazione di Voltaire, apocrifa perché erroneamente attribuita al filosofo francese («Non sono d'accordo con quello che dici, ma difenderò fino alla morte il tuo diritto a dirlo»). E non c'entra neanche l'Inquisizione, che è il solito stereotipo storico, logoro e superficiale, di tutti i vittimisti delle pseudopersecuzioni.

    Quindi di cosa stiamo parlando? Stiamo parlando del Facci-giornalista. Stiamo parlando del giornalismo e della qualità di ciò che leggiamo sui quotidiani.

    Sembra però che il tema sia del tutto assente dal dibattito pubblico sul caso Facci, anche dalla prese di posizione di altri giornalisti come Pierluigi Battista. Mentana parla di «porcata», Battista, blandamente, di «castronerie» e «cose non condivisibili». Ma solo come premessa per criticare la decisione dell'Ordine e per mettere in discussione la sua esistenza stessa, essendo un relitto fascista che minaccia la libertà dei giornalisti. La loro riflessione finisce qui. Anche io sono favorevole alla abolizione dell'Ordine dei giornalisti. Ma il punto, di nuovo, non è questo.

    L'Ordine dichiara di aver agito perché sono state violate norme deontologiche (richiamandosi anche alla Legge Mancino). Mentana conosce senz'altro queste norme, appartenendo all'Ordine dei giornalisti da molti anni. Se queste norme non sono state violate, Mentana spieghi i motivi per cui, dal suo punto di vista, il provvedimento contro Facci è tecnicamente scorretto e illegittimo. Ma se sono state violate, cosa rimane da imputare all'Ordine?

    Roberto Gava, uno dei medici diventati punto di riferimento dei gruppi "anti-vaccinisti", è stato radiato dall'Ordine per aver diffuso tesi scientificamente scorrette sui vaccini. A parlare di violazione della libertà di opinione e di Inquisizione sono stati solo i seguaci di questo medico.

    Non è vero quindi quello che scrive Battista, cioè che «gli Ordini degli avvocati, degli architetti, dei medici non mettono bocca sulle opinioni dei loro aderenti». Quello dei medici lo fa, ma perché quelle di Gava non erano solo semplici opinioni personali ma tesi, difese pubblicamente, su un tema medico-scientifico, che condizionavano la sua professione di medico. In modo simile, anche Facci ha espresso opinioni ma lo ha fatto su un quotidiano, nel proprio contesto professionale, nell'esercizio della sua professione di giornalista.

    Battista attacca l'Ordine come "organo corporativo", ma nel difendere il diritto di Facci-giornalista ad affermare ciò che vuole nel proprio ambito professionale, si esibisce in una difesa essa stessa corporativa della categoria, giustificando il diritto di un giornalista a scrivere ciò gli pare sul proprio giornale.

    La questione cruciale, infatti, è: qual è la differenza che passa tra il lavoro di un giornalista professionista (come è Mentana), il prodotto di questo suo lavoro, il suo valore, e uno sproloquio che anima una discussione in un bar o in qualsiasi altro contesto della vita quotidiana? Mentana - che sulla propria pagina fustiga i commentatori "webeti" - pensa non ci sia alcuna differenza?

    Se è vero che Facci scrive (come minimo) "porcate", appartenere alla stessa categoria di chi scrive un articolo-porcata costituisce per Mentana un problema meno grave - o un non-problema - del «tribunalicchio corporativo» dell'Ordine?

    I medici che prescrivono pseudomedicine alternative o che diffondono informazioni scorrette sui vaccini sono un problema per i medici seri, indipendentemente dalle regole dell'Ordine e dall'esistenza dello stesso Ordine. Lo sono per una questione di principio e di correttezza scientifica. Allo stesso modo, un cattivo giornalista, che scrive porcate, dovrebbe essere considerato un problema per tutti i giornalisti seri, dal momento che la reputazione della categoria non è proprio ai suoi massimi storici, e forse gli articoli-porcata e l'odio anti-Islam non contribuiscono ad aumentarne il prestigio.

    Del resto Facci scrive per un quotidiano che, in riferimento a una strage ferroviaria, ha avuto il coraggio di uscire con una prima pagina con il titolo «tutta colpa degli archeologi» (il titolo rimandava a un articolo di Mario Giordano), senza alcun riguardo per le critiche e le proteste suscitate.

    Mentana non pensa che articoli come questo infanghino tutta la categoria? Non pensa che sia un giornalismo ridotto a provocazione? Non è forse questo il problema, invece che una inesistente Inquisizione che minaccia la libertà di pensiero?

    Non parliamo poi della funzione civile ed educativa che dovrebbe avere il giornalismo, perché rischiamo davvero di farci sommergere dalle grasse risate e dalle accuse di "moralismo", visto il livello quotidiano di discussione anche giornalistica.

    Se Facci è legittimato a scrivere su una "testata registrata in tribunale" che odia tutti i musulmani che ci sono al mondo, perché non difendere il diritto a odiare sui giornali anche gli ebrei, i cristiani, gli archeologi, o qualsiasi altra categoria risulti indigesta a un qualsiasi giornalista che una mattina si sveglia in preda all'odio e alle sue idiosincrasie personali?

    Se Mentana, e gli altri colleghi che prendono le difese di Facci, hanno deciso che queste sono le regole della categoria, bene. Perché sì, anche questa sarebbe a suo modo una regola. Se è così ne prendiamo tutti atto. Mentana, e gli altri, la smettano però di considerarsi una categoria professionale perché, se le cose stanno così, significa che non c'è più differenza tra la parola scritta di un professionista - anche un pubblicista o un non iscritto all'Ordine - e qualsiasi altra spontanea manifestazione di ciò che ci passa per la testa.

    Se è così, il giornalismo è indistinguibile dai rutti.

    Delle due, l'una: se nel giornalismo professionista, quello che esce su carta stampata o su Internet, tutto è accettabile e legittimo, allora non c'è più un giornalismo. Se invece c'è ancora un giornalismo, allora c'è anche una deontologia. C'è un metodo. Ci sono dei principi. C'è una dignità, per citare l'Ordine. Ma deontologia, metodo, principi e dignità andrebbero rispettati anche senza Ordini, senza norme scritte e senza i "tribunalicchi" di cui si lamenta Mentana.

    Aggiornamento 21 giugno, ore 9:54
    La frase «Questi gruppi possono essere religiosi (i musulmani) o nazionali (ad esempio: Marocchini, Albanesi, Rom) è stata corretta così > «Questi gruppi possono essere religiosi (i musulmani), etnici (Rom) o nazionali (Marocchini, Albanesi)».
    Segnala un errore
    LINEE GUIDA AI COMMENTI

    Il nostro problema non sono le “fake news”. Ma la manipolazione e la mancanza di fiducia

    [Tempo di lettura stimato: 10 minuti]

    di Jeff Jarvis*

     

    "La propaganda è il braccio esecutivo di un governo invisibile".

    – Edward Bernays, Propaganda (1928)

    Le "fake news" sono solo il sintomo di mali sociali maggiori. Il vero problema sono la fiducia e la manipolazione. Le nostre istituzioni, indipendentemente se siano affidabili o inaffidabili, sono esposte alla manipolazione di un gruppo di persone malintenzionate che include troll e ideologi, russi e terroristi, tutte in azione per motivi diversi ma che usano metodi simili.

    La fiducia, invece, è un problema relativo a un periodo più a lungo termine che può coprire decenni o addirittura un secolo. Se non affrontiamo il problema immediato e urgente della manipolazione, le istituzioni non riusciranno a reinventarsi e a ottenere nuovamente la fiducia del pubblico attraverso più inclusione, equità, trasparenza, reattività e onestà. Alla News Integrity Initiative cominceremo ad affrontare entrambe le urgenze.

    Qui voglio analizzare l'emergenza della manipolazione con una serie di suggerimenti sulle difese necessarie in molti settori – non solo informazione e media, ma anche piattaforme, aziende tech, brand, marketing, governi, politica, istruzione – tra cui:

    • Consapevolezza. Come chiede Storyful, "Chi è il tuo corrispondente su 4chan?". Se non comprendiamo come veniamo manipolati, diventiamo pedine dei manipolatori.
    • Affamare i manipolatori privandoli di denaro, ma ancora di più, di attenzione, mostrando i loro metodi senza considerare il contenuto dei loro messaggi.
    • Imparare dal successo dei metodi dei manipolatori e cooptarli per produrre fatti, giornalismo e verità nella discussione pubblica.
    • Fornire maggiore trasparenza e responsabilità alle nostre istituzioni. Per quanto riguarda il giornalismo ciò si traduce nel mostrare il nostro lavoro, riconoscendo il pericolo della velocità (un gioco che i manipolatori vinceranno sempre) e imparando ad ascoltare il pubblico per riportare e servire le varie esigenze delle comunità. Per quanto riguarda le piattaforme, questo significa dar conto della qualità nelle decisioni algoritmiche e aiutare gli utenti a selezionare meglio le fonti di informazione. Per quanto concerne l'industria pubblicitaria, significa fornire strumenti per preferire aziende, agenzie e reti responsabili di ciò che scelgono di sostenere.

    Esaminerò in dettaglio questi suggerimenti dopo aver prima analizzato i meccanismi e i motivi della manipolazione. Non penso di avere una competenza particolare. Sto soltanto condividendo quello che so.

    Mi sono convinto che la manipolazione sia un'emergenza immediata grazie a danah boyd di Data & Society, che ha recentemente pubblicato l'ottimo rapporto di Alice Marwick e Rebecca Lewis, Media Manipulation and Disinformation Online, in cui sono elencati coloro che stanno cercando di manipolare i media (troll, ideologi, hate groups, teorici della cospirazione, gamergaters), i luoghi e le modalità utilizzati (blog, siti, bacheche e social media), e i motivi per cui lo fanno (per denaro, odio, potere, per creare polarizzazione, per destabilizzare le istituzioni, o per divertimento).

    Per discutere di manipolazione, è importante esaminare anche gli strumenti e i metodi russi. Per questo, raccomando la lettura di due rapporti interessanti: uno della NATO Defense College Foundation, Handbook of Russian Information Warfare di Keir Giles, e un altro della RAND Corporation, The Russian 'Firehose of Falsehood' Propaganda Model di Christopher Paul e Miriam Matthews.

    Secondo danah: "I nostri media, i nostri strumenti e la nostra politica sono sfruttati da innumerevoli attori che utilizzano questi sistemi per aiutare lo sviluppo della polarizzazione a fini personali, economici e ideologici. Alcune volte, per divertimento. Altre con obiettivi molto più inquietanti ".

    In sostanza, ci stanno usando.

    La manipolazione russa

    Ho trovato il report della NATO particolarmente preoccupante, perché nell'esaminare quello che la Russia ha fatto per manipolare l'informazione in Ucraina e altrove, possiamo ritrovare in gran parte il copione di ciò che sta accadendo negli Stati Uniti. Non sto suggerendo che ci sia la Russia dietro a tutto questo, ma che tutti i manipolatori imparano gli uni dagli altri mentre noi, nel mondo dei media, non lo facciamo.

    La NATO sottolinea come la Russia non ritenga che quanto stia accadendo sia una guerra informatica, piuttosto una guerra di informazione. "La Russia si riferisce allo 'spazio informativo'", spiega Rand,"includendovi le elaborazioni delle informazioni sia dei computer che dell'uomo, in sostanza il dominio cognitivo". La psicologia umana, per la precisione. Per cui le armi russe funzionano accuratamente non solo online ma anche nei media mainstream, consentendo di "rubare, piantare, interdire, manipolare, distorcere o distruggere l'informazione".

    "L'informazione", sostiene l'autore di un documento russo citato dalla NATO, "è diventata un'arma alla pari di un missile, una bomba e così via, ma ti permette di usare una quantità molto piccola di materiale o di energia per avviare, monitorare e controllare processi i cui parametri di materiale e di energia sono di molti ordini di grandezza superiori".

    La Russia ha utilizzato come arma una nuova reazione a catena nei social media. A quale scopo?

    "L'obiettivo principale del conflitto informatico-psicologico è il cambiamento di regime", riporta un altro documento russo, "influenzando la coscienza di massa della popolazione, dirigendo le persone in modo che la popolazione del paese vittima sia indotta a sostenere l'aggressore, agendo contro i propri interessi".

    Suona familiare? Sembra agghiacciante? Il nostro problema non si limita a uno stupido contenuto costruito su bugie e stupidità. Il problema è una potente strategia messa in atto per manipolarti.

    Le nostre istituzioni sostengono tutto questo. "La Russia cerca di influenzare il processo decisionale estero fornendo informazioni inquinate", spiega la NATO, "sfruttando il fatto che i rappresentanti occidentali eletti ricevano e siano sensibili agli stessi flussi informativi dei loro elettori". Quando stanno al gioco, il giornalismo, l'internet aperto e la libertà di parola che tanto amiamo sono usati contro di noi. "Anche una copertura mediatica seria può involontariamente dare autorevolezza a false informazioni russe". In questo risiede il pericolo più insidioso contro il quale danah boyd ci mette in guardia: fare il loro gioco dandogli attenzione e ritenendo, quella, informazione.

    Il loro obiettivo è la polarizzazione – all'interno di una nazione e tra i suoi alleati – e ottenere che un paese divori le proprie istituzioni. Le loro tattiche, come sostiene Ben Nimmo, ex addetto stampa della NATO, mirano a "respingere, distrarre, sconvolgere" e possono essere messe in campo sfruttando le vulnerabilità della società presa come obiettivo, in particolare la libertà di espressione e i principi democratici". Per Nimmo, queste persone utilizzano "eserciti di informazione di massa per gestire un dialogo diretto con la gente su Internet", usando armi "più pericolose di quelle nucleari". Oppure, come gli autori russi di un documento citato dalla NATO sostengono: "Oggi, i mass media possono provocare caos e confusione nei governi e nella gestione militare di qualsiasi paese, infondere idee di violenza, tradimento e immoralità e scoraggiare l'opinione pubblica".

    In questi giorni sei demoralizzato? Allora sta funzionando.

    Il documento russo sulla guerra informatica e psicologica citato dalla NATO elenca le tattiche chiave della Russia, che, come i loro obiettivi e risultati, suoneranno sinistramente familiari:

    I metodi primari di manipolazione dell'informazione utilizzati dai mass-media a beneficio degli obiettivi del confronto informativo-psicologico sono:

    Le menzogne esplicite ai fini della disinformazione ...;

    Nascondere informazioni significativamente importanti;

    Seppellire informazioni preziose in una massa di scorie informative ...;

    Sostituzione terminologica: utilizzo di concetti e termini il cui significato non è chiaro o ha subito un cambiamento qualitativo, che rende più difficile dare forma a una rappresentazione reale degli eventi; [vedi "fake news"]

    Uso di tabù su forme specifiche di informazione o categorie di notizie ...; [vedi "correttezza politica"]

    Fornire informazioni negative, più facilmente accettate dal pubblico rispetto a quelle positive.

    Altre tattiche ancora: troll e bot sono utilizzati per creare una percezione dell'opinione pubblica che sia raccolta dai media. I giornalisti sono molestati e intimiditi, anche da troll e bot, che sfruttano il volume: "Quando il volume dell'informazione è basso," dice RAND, "i destinatari tendono a preferire gli esperti, ma quando il volume delle informazioni è alto, i destinatari tendono a preferire l'informazione da altre fonti". E poi sfruttano la velocità: "La propaganda russa ha l'abilità di arrivare per prima", osserva Rand. "Ci vuole meno tempo a costruire fatti di quello necessario a verificarli." E la prima impressione generata detta l'agenda.

    A livello più alto, è la verità a venire attaccata. "Molte falsità, non necessariamente coerenti, sono in parte progettate per minare la fiducia nell'esistenza di una verità oggettiva, sia da parte dei media che da fonti ufficiali", sostiene la NATO. "Questo contribuisce a erodere i vantaggi relativi alle società democratiche liberali quando si cerca di contrastare la disinformazione". [Mia enfasi]

    Cosa facciamo nel mondo del giornalismo per rispondere a tutto questo? Fact-checking. Debunking. Copriamo la notizia. Ed è proprio quello che vogliono che noi facciamo, dando loro attenzione. Lo dice l'ex ambasciatore statunitense in Ucraina Geoffrey Pyatt: "Potremmo trascorrere ogni ora di ogni giorno cercando di controbattere ogni bugia, al punto da non occuparci di altro. Questo è esattamente ciò che vuole il Cremlino ".

    La manipolazione occidentale

    Ribadisco: non sto dicendo che la Russia sia dietro a tutta la manipolazione dei media. Assolutamente. Ma come suggeriva Hillary Clinton, la fabbrica macedone di fake news, che la seguiva, ha imparato i propri trucchi da qualcuno. I troll e i manipolatori imparano gli uni dagli altri perciò dobbiamo saperne di più.

    Nel rapporto pubblicato da Data & Society, Marwick e Lewis hanno riportato ricerche sulla diffusione dei messaggi populisti pro-Trump, che si diffondono: 1) "attraverso meme condivisi su blog e Facebook, attraverso i bot di Twitter, i canali YouTube"; 2) qualche volta anche attraverso l'account personale Twitter di Trump; 3) finché non vengono poi "diffusi da una stampa iper faziosa di estrema destra" radicata nelle teorie della cospirazione e nella disinformazione"(leggi: Breitbart e altri); 4) fino a che non "hanno influenzato l'agenda delle principali fonti dei mainstream media". Da 4chan e 8chan ad Alex Jones, Breitbart, fino a Trump, alla Fox e alla CNN, arrivando fino a te.

    Come "fake news" è da considerare un'etichetta superficiale, lo è anche "alt-right", che Marwick e Lewis analizzano nei suoi segmenti costituenti: "un'amalgama composta da teorici della cospirazione, tecno-libertari, nazionalisti bianchi, difensori dei diritti dell'uomo, troll, anti-femministi, attivisti anti-immigrazione e ragazzi annoiati". "Sfruttano sia le tecniche della cultura partecipativa che le opportunità offerte dai social per diffondere le loro diverse credenze" e "puntare alle vulnerabilità nell'ecosistema dei mezzi di informazione per aumentare la visibilità e la platea dei loro messaggi". Quello che li tiene uniti è un insieme di opinioni – anti-istituzioni, anti-multiculturalismo, anti-globalismo, anti-femminismo, anti-semitismo, anti-politica e ideologie nazionaliste e razziste. Ma ciò che più li unisce è la tecnica usata. Come i troll, mirano alla reazione per la reazione stessa. Prendono in giro "il tipo di panico morale suscitato dalla tragedia della settimana perpetrata da talk show e notizie via cavo", come ha osservato la studiosa della rete Whitney Phillips. E sfruttano la Legge di Poe, giocando "con l'ambiguità in modo tale che il pubblico non sia mai abbastanza sicuro se siano seri o meno".

    Hackerano i social, i media e, alla fine, l'attenzione e la democrazia.

    E in questo c'è la morsa paradossale in cui ci ritroviamo: ogni volta che ci rivolgiamo a loro, li controlliamo e li attacchiamo, li alimentiamo con l'attenzione. Hillary Clinton ha imparato, nel modo peggiore, che "controbattendo le idee [estremiste], ha offerto loro nuova visibilità e legittimità". "Inavvertitamente ha cementato la loro importanza." Marwick e Lewis sostengono che "coinvolgendo i media nel raccontare determinate storie, anche attraverso il debunking, i manipolatori dei media sono in grado di influenzare l'agenda pubblica".

    E la situazione può soltanto peggiorare. In un dibattito che ho moderato sull'argomento, al World Economic Forum (WEF) di San Francisco, ho ascoltato alcune previsioni spaventose. In primo luogo, che i prossimi obiettivi saranno "i pilastri della società" – medici, sacerdoti, revisori, giudici. In secondo luogo, che le comunità diventeranno "tribù di opinioni", dove chi non è d'accordo con l'ortodossia dell'opinione sarà etichettato come imbonitore. In terzo luogo, che la realtà aumentata renderà più facile falsificare non solo testi e foto, ma anche audio e video e quindi identità. E, infine, ed è ciò che più temo, che una nuova rivoluzione luddista contro la tecnologia ci dividerà in "tribù connesse e disconnesse".

    In un altro dibattito tenutosi sempre al WEF  ho ascoltato dirigenti di ONG, governi, banche, grandi aziende, industrie farmaceutiche, amministrazioni e media iniziare a riconoscere l'emergenza che stiamo vivendo. Bene.

    E allora che diamine facciamo?

    Noi che lavoriamo nei media e in altre istituzioni dobbiamo sviluppare nuove strategie che tengano conto delle tattiche adottate dai nostri nuovi nemici. Dobbiamo andare molto oltre rispetto a dove ci troviamo adesso.

    Oggi, alcuni contrastano le falsità con il fact-checking. Altri preferiscono accrescere il pensiero critico del pubblico con la cosiddetta alfabetizzazione delle notizie. Altri ancora compongono liste e indicatori di vizi (la News Integrity Initiative sta collaborando con Storyful e Moat in un unico sforzo) e virtù delle fonti. Google sta cercando di fornire affidabilità, autorità e qualità delle fonti con una sua classificazione. Facebook sta eliminando gli account falsi utilizzati per la conversazione pubblica. (Se solo Twitter fosse più duro nei confronti di bot e fake malevoli). Ne ho visti così tanti di sforzi (idealistici, credo) di classificazione dei siti in base alla qualità.

    Queste soluzioni sono positive fin quando si portano avanti, ma piuttosto che attaccare fatti, fonti e account – semplici tattiche – dobbiamo attaccare il vero sintomo (la manipolazione) e la reale malattia (la fiducia). "Il primo passo consiste nel riconoscere che questa è una sfida non di poco conto", sottolinea RAND. Di seguito alcuni dei suggerimenti che sto considerando:

    Prendere coscienza: I media devono riconoscere come e quando sono oggetti di manipolazione. Mi piace l'idea di Storyful di assumere un corrispondente 4chan a tal punto che alla News Integrity Initiative stiamo pensando di coinvolgere un giornalista per aiutare i media a capire cosa sta succedendo e avvertendole anticipatamente sulle azioni intraprese contro di loro.

    Voglio anche sapere come tutti gli esperti citati precedentemente – e altri presenti nella mia lista continuamente aggiornata – sono manipolati e cosa possono fare in propria difesa, senza la quale diventano giocattoli nella mani dei troll e di Putin.

    Condividere informazioni: Oltre ai corrispondenti di 4chan, le principali redazioni dovrebbero avere personale che si occupi di riconoscere la manipolazione prima che colpisca la copertura delle news e la loro veridicità. Le persone preposte a questo compito dovrebbero comunicare con i loro colleghi di altre redazioni. Nei meeting del WEF mi ha colpito come i media più importanti gestiscono gli attacchi di disinformazione senza condividere però tra di loro le informazioni. Perciò, dovremmo sviluppare reti di sicurezza all'interno dei media e non solo in modo da condividere le informazioni, le valutazioni delle minacce, gli avvisi, le migliori pratiche e le lezioni. Prendendo in prestito l'analisi di Craig Newmark, sostenitore della News Integrity Initiative, queste potrebbero essere le NATO di giornalismo, media, brand e così via, istituite sia per informare che per proteggersi vicendevolmente. La News Integrity Initiative non vedrebbe l'ora di sostenere simili sforzi.

    Affamarli: Ci sono molti sforzi in corso – alcuni menzionati in precedenza – per ridurre alla fame i manipolatori, privandoli del loro sostegno economico garantito attraverso la pubblicità, aiutando le reti pubblicitarie, le agenzie e le aziende al fine di evitare che diano loro soldi (e, mi auguro, scegliendo, invece, di sostenere la qualità nei media). Dobbiamo inoltre mettere in difficoltà i cosiddetti motori di raccomandazione (Revcontent, Adblade, News Max così come Taboola e Outbrain) che sostengono e guadagnano dalle fake news, quanto gli editori che distribuiscono le loro scorie. E anche questo non basta.

    La sfida più difficile – specialmente per i media – è affamare i manipolatori privandoli di ciò che vogliono e di cui si nutrono: l'attenzione. Già mi sembra di sentire l'obiezione dei giornalisti che sono obbligati a raccontare quello di cui la gente sta discutendo. E se non fossero le persone a parlarne ma i bot? Se l'unico motivo per cui la gente finisce per parlare di un argomento è una sorgente inquinata a causa della manipolazione di alcuni fanatici su 4chan, che arriva poi a Infowars, Breitbart, Fox, MSM e – grazie all'opera di un corrispondente 4chan – fino a te? Sento anche giornalisti affermare che tutto quello che ho spiegato finora fa dei manipolatori una storia da coprire e raccontare al pubblico. Sì, ma solo in una certa misura. Ciò che sostengo è che il giornalismo dovrebbe occuparsi dei metodi dei manipolatori, non dei loro messaggi.

    Anticiparli: RAND avverte che non c'è speranza nel rispondere ai manipolatori, per cui è più saggio competere con loro. "Non usare il tuo flusso di informazioni per spegnere il fuoco della falsità; punta l'idrante verso qualunque altra cosa e cerca di spingere quel pubblico in direzioni più produttive... Aumenta il flusso di informazioni convincenti e comincia a competere". In altre parole, se sai – grazie alla tua rete di informazioni e al corrispondente 4chan – che i manipolatori si stanno occupando, per esempio, di vaccini, arrivaci prima e detta l'agenda del pubblico attraverso giornalismo e contenuti. Avverti il pubblico che qualcuno cercherà di manipolarlo. Non reagire troppo tardi. Informa per primo.

    Imparare da loro: Nei media continuiamo a credere che il nostro mondo non sia cambiato, che sono i cittadini a dover venire incontro a noi e alle nostre fonti per essere informati. No! Siamo noi a dover cambiare, portando il giornalismo al pubblico dove e quando ci sono discussioni. Dovremmo imparare dalle lezioni dei manipolatori come diffondono la disinformazione, per poter usare le loro tecniche per diffondere informazione. Inoltre, non dobbiamo supporre che tutti i nostri strumenti provati e concreti (articoli, spiegazioni, fact-checking) possano contrastare la propaganda dei manipolatori. Dobbiamo sperimentare e imparare ciò che convince e non convince la gente a preferire fatti e ragionevolezza.

    Dobbiamo ripensare noi stessi e ricostruire la fiducia nei nostri confronti: Infine, passiamo dai sintomi ai disturbi. I nostri media "tradizionali" non godono di fiducia per molte ragioni che dobbiamo affrontare. I media – non solo quelli cosiddetti tradizionali, ma l'ecosistema mediatico nel suo complesso – devono diventare più equi, inclusivi, riflessivi e responsabili nei confronti delle comunità. Dobbiamo diventare più trasparenti. Dobbiamo imparare ad ascoltare prima di creare il prodotto che chiamiamo contenuto. Anche le aziende, il governo e la politica devono imparare ad ascoltare prima. Questi sono gli obiettivi a lungo termine.

    *Direttore del Tow-Knight Center for Entrepreneurial Journalism alla City University di New York.

    Articolo pubblicato su Medium il 12 giugno 2017 – traduzione di Roberta Aiello

    Immagine anteprima da Media Manipulation and Disinformation Online, un'illustrazione di Jim Cooke.

    Segnala un errore
    LINEE GUIDA AI COMMENTI

    La Corte europea apre la caccia a Google e Facebook?

    [Tempo di lettura stimato: 6 minuti]

    Con la recente sentenza (caso Pirate Bay) del 14 giugno, la Corte di Giustizia europea ha affermato che la gestione del sito The Pirate Bay costituisce violazione del copyright, in quanto mette a disposizione dei suoi utenti contenuti illeciti. In realtà Pirate Bay non presenta contenuti, ma solo torrent e magnet link, cioè file che linkano a contenuti illeciti. Quindi, la peculiarità è che i gestori del sito non trattano direttamente i file illeciti.

    Ma la Corte europea ha sancito che, comunque, Pirate Bay deve rispondere di violazione del copyright nel momento in cui facilita l’accesso ai contenuti illeciti, con la consapevolezza e l'intento di consentire la diffusione di file piratati.

    La Corte rimarca il fatto che i gestori pongono a disposizione degli utenti un motore di ricerca, una classificazione dei contenuti, e ne ottengono un lucro tramite la pubblicità. Si tratta di caratteristiche che in teoria presentano anche altre piattaforme online (come YouTube), e quindi viene il dubbio se tale sentenza possa portare ad azioni contro altri fornitori di servizi online dello stesso tipo o anche contro i motori di ricerca.

    Un altro dubbio è se tale sentenza possa in qualche modo incidere sul dibattito in corso al Parlamento europeo sulla riforma delle direttiva copyright (qui per sapere a che punto siamo con la riforma).

    L’articolo 13 della proposta di direttiva copyright, infatti, nella sua formulazione della Commissione europea, imporrebbe alle piattaforme online di attuare misure (filtraggio) per prevenire la disponibilità sui loro servizi di opere identificate dai titolari dei diritti. È da ricordare che la norma non si riferisce a contenuti illegali, bensì solo a contenuti “identificati dai titolari dei diritti”, intendendo che non è necessario che siano illegali per essere rimossi.

    La norma di fatto impone ai provider l’utilizzo di software di riconoscimento di contenuti (tipo Audible Magic o ContentID) per rimuovere preventivamente (impedire che siano diffusi) i contenuti che, a detta dei titolari dei diritti (che fornirebbero le impronte sulle quali tarare i software, decidendo quindi cosa è lecito e cosa non lo è), violerebbero il copyright. Insomma un filtraggio generalizzato e preventivo dei contenuti immessi dagli utenti online. In poche parole, i titolari dei diritti sarebbero i giudici e le piattaforme online gli esecutori degli ordini dei titolari dei diritti, con buona pace dei diritti dei cittadini.

    Quale impatto può avere questa sentenza sulla discussione in corso al Parlamento europeo?

    In realtà, se ci si focalizza sulla menzione del servizio di indicizzazione e classificazione fornito da Pirate Bay, non si comprende l’effettivo significato della sentenza. La Corte non dice affatto che la fornitura di un servizio di tale tipo fa scattare la responsabilità dei gestori dei sito, ma l’elemento in questione è utilizzato come indice per ricavarne una consapevolezza dell'illiceità dei contenuti diffusi.

    Anche l’aspetto del lucro deve essere considerato allo stesso modo. Nella sentenza si valorizza il fatto che Pirate Bay ottenga dei profitti pubblicitari, ma anche questo elemento è solo un indice della consapevolezza dell’illiceità delle opere diffuse. La Corte, nella precedente sentenza GS Media, ha chiarito che, se il collocamento del link è effettuato a fini di lucro, “è legittimo aspettarsi che l'autore di tale collocamento realizzi le verifiche necessarie per garantire che l'opera di cui trattasi non sia illegittimamente pubblicata. Pertanto, deve presumersi che tale collocamento sia intervenuto con piena cognizione del fatto che l’opera è protetta e che il titolare del diritto d'autore potrebbe non aver autorizzato la pubblicazione su Internet. In siffatte circostanze, e a condizione che tale presunzione non sia confutata, l'atto di collocare un collegamento cliccabile verso un'opera illegittimamente pubblicata su Internet costituisce una «comunicazione al pubblico”.

    La presenza del lucro è quindi una mera presunzione, per la quale può essere data la prova contraria. È vero, però, che il concetto di lucro è ambiguo (in quanto anche il guadagno di pochi euro con un banner inserito solo per ripagare il costo del server costituisce lucro), quindi può portare a una forte incertezza in molte decisioni delle autorità giudiziarie. I titolari dei diritti potrebbero avviare azioni giudiziarie al solo fine di intimidire i gestori dei siti web, costringendoli così a rimuovere contenuti anche leciti (pensiamo a contenuti parodistici o fair use) per evitare di subire un’azione legale con risultato incerto (per la difficoltà di provare l'assenza di consapevolezza).

    Quindi, sia l’indicizzazione che la classificazione dei contenuti, e lo stesso aspetto del lucro, non sono elementi che portano automaticamente ad una responsabilità, ma solo indici presuntivi della consapevolezza dell’illiceità dei contenuti diffusi. Ciò che porta alla responsabilità della piattaforma è, quindi, la prova della consapevolezza e il carattere intenzionale dell’intervento del gestore del sito. Cioè, si richiede che il gestore del sito intervenga con piena cognizione delle conseguenze del suo comportamento a fornire un apporto alla diffusione delle opere protette.

    Un elemento indicativo in tal senso è la circostanza che siano state inviate delle segnalazioni ai gestori della presenza di opere illecite sul sito, e il gestore non si sia attivato per rimuoverle. Si tratta di un elemento previsto dalla direttiva eCommerce, non certo una novità.

    In conclusione, la sentenza in oggetto probabilmente non avrà alcuna particolare conseguenza nei confronti delle piattaforme come YouTube o Facebook, perché queste ultime hanno un sistema di segnalazioni dei contenuti illeciti e di rimozione degli stessi. YouTube non può essere considerato responsabile dei contenuti immessi dagli utenti solo perché li indicizza e li classifica (i video più visti), e neppure perché ci guadagna. Occorre la prova della consapevolezza della diffusione di opere illecite.

    Richieste di rimozione di contenuti per violazione del copyright ricevute da Google

    Ma allora, cosa cambia con questa sentenza?

    In realtà non molto, anche se quando si tratta di sentenze delle Corti Supreme occorre sempre cautela nell'analisi. Quello che accade con questa sentenza è che la Corte sta proseguendo nella sua opera, iniziata da tempo, di interpretazione di un concetto primario nell'ambito del diritto d’autore, cioè la “comunicazione al pubblico”. La direttiva Infosoc (art. 3), prevede infatti che la comunicazione al pubblico di un’opera protetta debba essere autorizzata dal titolare dei diritti, e quindi se manca l’autorizzazione vi è violazione del copyright. Ma la normativa europea non definisce la “comunicazione al pubblico”, da cui la necessità di una interpretazione del concetto da parte della Corte europea. Negli anni la Corte si è occupata svariate volte di comunicazione al pubblico e già risultano altri procedimenti inviati alla Corte che dovranno tornare sull'argomento per chiarire ulteriori aspetti ancora non ben definiti.

    Con questa sentenza la Corte non ha fatto altro che estendere ulteriormente la “comunicazione al pubblico”, ricomprendendo in essa anche condotte meramente facilitative dell’accesso alle opere. Quindi è comunicazione (e occorre l’autorizzazione del titolare) non solo se diffondo l’opera direttamente o indirettamente, ma anche se mi limito a rendere più semplice l’accesso all’opera protetta, ad esempio tramite un link (i torrent e i magnet sono dei link fondamentalmente). Ciò non toglie che per aversi violazione del copyright deve comunque sussistere la consapevolezza, così come spiegata sopra.

    Cosa c’entra tutto questo con la riforma della Direttiva Copyright?

    Nulla e tutto allo stesso tempo. La sentenza della Corte non amplia in alcun modo la responsabilità del provider come prevista dalle norme europee, rivede solo un concetto non definito dalla normativa europea. Quindi di fatto non si pone in contrasto con la normativa e con la sua giurisprudenza. Non è possibile, quindi, evincere da questa sentenza generiche esigenze di riforma dell’attuale normativa europea. Anzi, a ben vedere questa sentenza ci evidenzia proprio il contrario.

    Dopo anni di allarmi dell’industria del copyright, che ha sostenuto che Internet è il regno della copia selvaggia, il luogo dove è possibile violare le norme senza conseguenze, il Far Web, adesso scopriamo che con le norme attuali è possibile pervenire alla condanna di un sito che pirata contenuti. Forse, allora, non occorrono nuove norme. E in particolare non serve riformare la responsabilità degli intermediari della comunicazione. Il Far Web, in fin dei conti, non è poi così tanto selvaggio e senza regole.

    E invece, l’Unione europea ha in discussione una riforma della Direttiva Copyright che si propone di stravolgere le regole attuali (quelle che hanno portato alla condanna di Pirate Bay) e che, nel testo della Commissione e in alcuni testi emendati, si presenta addirittura in contrasto proprio con questa sentenza, come evidenzia l’analisi di CopyBuzz.

    L’articolo 13 della proposta di Direttiva Copyright, infatti, prevede rimozioni basate su semplice segnalazione da parte dei titolari dei diritti, senza alcuna possibilità di ricorso o comunque tutele o garanzie. Se l’articolo passasse come proposto dalla Commissione avremmo degli algoritmi automatizzati che rimuovono contenuti senza alcuna tutela per i diritti e senza trasparenza.

    Il punto essenziale, che l’industria del copyright non coglie, è che questioni di questo tipo non possono essere decise se non caso per caso, analizzando nel concreto la situazione e verificando le peculiarità della questione. Cosa che è impossibile da fare tramite filtri automatizzati che mai saranno in grado di stabilire concretamente se i gestori hanno effettiva consapevolezza dell’illiceità di un’opera (e se è coperta da fair use? se è una parodia?) o se c’è effettiva intenzione di diffondere proprio l’opera illecita. Nessun filtro, nessuno software sarà mai in grado di fare questo.

    Imporre un sistema di filtraggio generalizzato e preventivo alle piattaforme online significa non tenere conto delle norme giuridiche e realizzare una forma di giustizia privata in violazione di tutti i principi propri di un paese democratico, per primo il principio della certezza del diritto.

    È quindi evidente che l’articolo 13, quello che fortemente vuole l’industria del copyright, come attualmente formulato, si pone in contrasto proprio con la sentenza che stiamo discutendo.

    Segnala un errore
    LINEE GUIDA AI COMMENTI

    Come Corbyn ha vinto perdendo anche grazie ai giovani, ai social media e al movimento-partito

    [Tempo di lettura stimato: 11 minuti]

    di Angelo Romano e Andrea Zitelli

    Lo avevano dato per il grande sconfitto, mentre Theresa May sarebbe dovuta essere la regina assoluta di queste elezioni. La notte degli exit poll nemmeno i commentatori e i sostenitori di Corbyn riuscivano a credere a un risultato simile. Per settimane si era parlato di un partito conservatore in vantaggio di oltre il 20% e addirittura con 150 seggi in più rispetto ai laburisti (anche se i sondaggi delle ultime settimane mostravano che il divario si stava riducendo).

    È finita con un hung parliament, cioè un parlamento senza un partito con maggioranza assoluta, i laburisti al 40% (risultato che non si raggiungeva dai tempi di Blair) e i conservatori al 42%. È crollato l’Ukip, sceso all’1,8% (9 punti percentuali in meno rispetto al 2015), a vantaggio sia dei Laburisti che dei Conservatori, smentendo quelle tesi, molto diffuse, che individuavano nella compagine di Nigel Farage la principale forza politica in grado di erodere consensi tra le classi popolari proprio al partito guidato da Jeremy Corbyn. Ma così non è stato.

    Il Partito Laburista ha vinto invece in quelle aree popolari dove Ukip era considerato la sua minaccia principale (Hartlepool e Middlesbrough) e in collegi roccaforte dei Conservatori, come Canterbury, per la prima volta dalla Prima Guerra Mondiale, o Kensington, dove nessuno immaginava che il messaggio politico di Corbyn avrebbe potuto fare breccia.

    Le chiavi di lettura di questo risultato sono tante e tra queste sicuramente: il modo in cui è stata condotta la campagna elettorale, il maggiore coinvolgimento di persone che non avevano mai partecipato alla vita politica e il ruolo sempre più importante di siti alternativi di notizie sostenitori del partito laburista.

    I laburisti tra media digitali e il partito-movimento

    Questi risultati dei laburisti non nascono ieri, scrive Andrew Chadwick, docente di Scienze Politiche alla Royal Holloway dell’Università di Londra. È l’esito di un rinnovamento che nasce con le elezioni del 2015, quando il partito laburista ha modificato l’organizzazione della forma partito per come l’abbiamo conosciuta finora, coinvolgendo sempre più persone, per lo più giovani.

    Il partito così è diventato il luogo catalizzatore di questioni, tematiche e campagne in passato sostenute attraverso mobilitazioni e proteste non di carattere partitico. In molti hanno canalizzato le istanze del proprio attivismo nelle politiche del partito, coniugando l’utilizzo dei social media e l’azione porta a porta, sotto la guida di Corbyn e di Momentum, il movimento nato nel 2015 per sostenere la sua candidatura.

    Da allora, si legge sul sito, Momentum “si è evoluto per trasformare in impegno costante l’energia e l’entusiasmo generati dalla campagna elettorale del 2015”. Si tratta di un movimento indipendente che sostiene i laburisti e lavora per rafforzare la partecipazione delle persone e aiutare a costruire un partito aperto, democratico e alimentato dai suoi membri, chiamati a impegnarsi attivamente nelle sedi locali. Ad oggi, Momentum ha oltre 150 gruppi locali, 20mila membri e 200mila sostenitori.

    In particolare, l’utilizzo dei media digitali ha fatto sì che fossero introdotte culture organizzative sperimentali e più vicine ai movimenti all’interno di una struttura notoriamente gerarchica come un partito politico, modificandola dall’esterno. L’organizzazione, le regole, le norme e le abitudini del partito vecchio stile sono state “contaminate” dalla flessibilità e dall’agilità dei social media. In questo modo, il coinvolgimento sui social si è tradotto in impegno politico e la “forma-partito”, più volte data per morta, si è rinvigorita. Da questo punto di vista, l’esperienza del Partito Laburista, prosegue Chadwick, potrebbe rivelarsi un modello positivo da seguire per l’impegno democratico e per il decentramento del potere politico.

    Durante la campagna elettorale, Momentum ha lanciato un sito web e un’app simile a quella utilizzata dal candidato alle primarie per il Partito Democratico statunitense, Bernie Sanders. Per l’occasione, è stata chiamata Erika Uyterhoeven, una delle responsabili della campagna di Sanders negli Usa. Il suo compito era quello di addestrare migliaia di attivisti in tutto il paese per “avere conversazioni autentiche, empatiche, che andassero oltre la semplice raccolta dati”, scrive sul Guardian Emma Rees, professoressa di Letteratura e Gender Studies all’Università di Chester e una delle coordinatrici nazionali di Momentum. L’applicazione ha consentito a qualsiasi attivista di trovare la sede più vicina e di connettersi con altre persone nella propria zona, inserendo semplicemente il proprio codice postale. La app consentiva anche di organizzare auto collettive per seguire i tour elettorali o le riunioni del partito. È stata la prima volta che un’applicazione del genere è stata utilizzata in una campagna elettorale britannica. «Questa esperienza a Momentum ci ha consentito di sviluppare ulteriormente l’app, introducendo l’opzione dell’auto collettiva», ha raccontato Uyterhoeven a The Independent.

    La mappa online ha permesso di inviare gli attivisti nelle circoscrizioni strategiche ed è stata utilizzata da più di 100mila persone in tutto il partito, scrive ancora Rees. Durante il giorno delle elezioni, quasi 10mila persone si sono impegnate per bussare a oltre 1,2 milioni di porte per assicurarsi che gli elettori andassero a votare per i Laburisti.

    La storia di queste elezioni è che la gente comune ha ridisegnato la mappa elettorale. Svolgendo una campagna agile e creativa, con uno staff giovane, abbiamo coinvolto persone che non avevano mai partecipato a iniziative del Partito Laburista, non avevano mai fatto una campagna elettorale e spesso addirittura politica. Abbiamo dato fiducia alle persone.

    Questo cambiamento non ha toccato i conservatori, un partito in calo di adesioni, rimasto ancora a un modello organizzativo gerarchico, scrive il Guardian. Secondo un sondaggio precedente al voto di Lord Ashcroft, il partito laburista sarebbe stato in grado di intercettare il voto dei più giovani, vista anche l'attenzione nei loro confronti della campagna elettorale di Corbyn: i laburisti avrebbero raccolto ben 2 voti su 3 tra i 18-24 anni, mentre il 60% dei sostenitori dei conservatori avrebbe almeno 65 anni. Tuttavia, spiega la BBC, non ci sono ancora dati ufficiali in grado di provare questo andamento del voto.

    La distanza tra i due partiti si è manifestata soprattutto nelle strategie comunicative e organizzative sul web. I Laburisti hanno investito più fondi e sono stati più presenti dei Conservatori sui social media, individuando in Facebook, Twitter (con l’hashtag #forthemany) e Youtube i canali per mobilitare le persone e costruire e motivare la propria base invece che attaccare i propri avversari politici. Secondo uno studio dell’Internet Institute dell’Università di Oxford, Twitter è stato uno dei punti di forza della campagna del partito laburista. Al contrario, la campagna digitale dei Conservatori è stata ritenuta da diversi studiosi dei media “improvvisata e poco reattiva”. Il partito di Theresa May ha utilizzato i social per colpire Corbyn e non per sostenere le proprie posizioni e motivare al voto la propria parte.

    via Guardian

    Su Facebook, i post di Corbyn e del partito laburista hanno avuto un livello di coinvolgimento e interazioni notevolmente superiore a quello di Theresa May e dei conservatori, scrive Liam Corcoran su Newswhip. Durante la campagna elettorale, la pagina di Corbyn ha visto più di 4 milioni di interazioni contro le 554mila della candidata dei Tories.

    via Newswhip

    La pagina Facebook di Corbyn ha pubblicato molti più post (217 contro 57 tra l'1 maggio e l'8 giugno) e, soprattutto, ha saputo variare messaggi e format. Questo divario è stato evidente anche nei livelli di engagement delle pagine ufficiali dei due partiti. I laburisti hanno raggiunto 2,56 milioni di interazioni con 450 post, i conservatori poco più di 1 milione di "like" e condivisioni su 116 post.

    via Newswhip

    Corbyn e il partito laburista hanno deciso, inoltre, di puntare sui video nativi su Facebook. Su 217 post sulla pagina del candidato laburista, ben 109 erano video. In generale, il numero di interazioni è stato più del doppio rispetto a quelli pubblicati dalla pagina di Theresa May.

    via Newswhip

    Nelle ultime 48 ore precedenti al voto, il video dei Conservatori che incoraggiava la gente ad andare a votare era stato visto meno della metà di quello dei Laburisti, ha detto al Guardian Sam Jeffers, co-fondatore di Who Targets Me, che ha tracciato più di 7mila spot elettorali su Facebook inviati a circa 12mila elettori. Il video dei laburisti sulla “dementia tax”, la “tassa sulla demenza”, la riforma del finanziamento per le spese sanitarie generate da malattie croniche a cominciare dall’Alzheimer, proposta da Theresa May, era stato visualizzato il doppio di quello dei conservatori contro Corbyn.

    Ovviamente, prosegue Corcoran, le interazioni sui social media non si traducono in voti, ma le condivisioni, i commenti, le storie e i temi che vengono fuori dagli scambi con le persone che frequentano le pagine possono introdurre nuovi argomenti di discussione e diventare parte della campagna politica di un partito.

    «I Laburisti hanno trasmesso messaggi positivi e speranzosi», ha commentato sempre al quotidiano britannico Jag Singh, fondatore di MessageSpace, agenzia di pubblicità sul digitale, ricorrendo a una strategia simile «a quella del Presidente francese Emmanuel Macron, dell’ex Presidente degli Stati Uniti, Barack Obama, e dell’attuale, Donald Trump». Il partito di Corbyn ha puntato a «costruire un movimento sapendo che i social media possono essere un collante che lega insieme le persone. Se la tua strategia è, invece, colpire i punti deboli dell’avversario, stai rinunciando a evocare quel senso di unione che poi è decisivo per spingere le persone ad andare a votare».

    «La strategia sui social media dei Laburisti ha funzionato – ha aggiunto l’ex addetto stampa di David Cameron, Giles Kenningham – ha dato energia alle persone che si sono mobilitate per coinvolgerne altre».

    La reazione alla campagna dei tabloid contro Corbyn e l’ascesa dell'"Alt-Left" nel dibattito pubblico

    Il giorno prima le elezioni politiche nel Regno Unito, The SUN e il Daily Mail, due dei tabloid britannici più venduti, hanno attaccato in prima pagina senza tanti giri di parole il candidato del partito laburista, Jeremy Corbyn (i due giornali si sono schierati invece a favore di Theresa May) accostandolo ai terroristi che hanno colpito più volte il Regno Unito nelle ultime settimane.

    via Guardian

    Il Daily Mail ha titolato “I difensori del terrore”, mentre il SUN, “I compagni jihadisti di Corbyn”. La giornalista Suzanne Moore sul Guardian, commentando queste prime pagine e il loro possibile effetto sull’opinione pubblica, il giorno dopo i risultati delle elezioni e il positivo risultato ottenuto dai laburisti, ha scritto che pensava che la copertura di questi tabloid sarebbe stata cruciale nelle scelte di voto dei britannici, come in passato. Ma, spiega ancora Moore, si sbagliava: “Il Corbyn che la gente ha visto non corrisponde al mostro che è stato ritratto”. Ecco perché, avverte la giornalista:

    I media devono rispecchiare la realtà, non tentare di crearne una.

    La reazione a un certo tipo di fare informazione si è poi manifestata pubblicamente l’8 giugno, il giorno stesso del voto, quando The SUN in prima pagina ha pubblicato un’immagine di Corbyn dentro un secchio della spazzatura con a fianco dei titoletti in cui veniva descritto come “amico dei terroristi”, “incapace sulla Brexit”, “distruttore di posti di lavoro”, “nemico degli affari”, ecc.

    via Charlie Beckett

    Diversi attivisti e utenti in tutto il Paese hanno iniziato a postare immagini (anche con l’hashtag #Eclipsethesun già utilizzato in una campagna contro il tabloid, lanciata sui social nel novembre del 2016) sui social, in cui venivano prese molte copie del SUN (ma anche del Daily Mail) per essere nascoste, gettate nella spazzatura o bruciate.

    Ma c’è anche un’altra sfida all’orizzonte per questi tabloid: cercare di mantenere la centralità nel dibattito pubblico generale rispetto ai nuovi soggetti che stanno emergendo sulla scena. Scrive infatti Robert Booth sul Guardian che “blog politici altamente partigiani (ndr sia di sinistra, come Another Angry Voice, che di destra, come Breitbart London) e semiprofessionali” vengono largamente più condivisi rispetto alle opinioni dei principali giornalisti dei quotidiani mainstream: “secondo una ricerca condotta per il Guardian dalla società di analisi Web Kaleida, è emerso che i siti di notizie alternative sono una delle forze più potenti nella condivisione di news riguardo le elezioni”.

    Lo scorso maggio, Jim Waterson su BuzzfeedNews, raccontava ad esempio l’ascesa di siti o blog di sinistra (definiti “Alt-left”, in contrapposizione all’"Alt-right” americana e ai siti che rilanciano posizioni politicamente di destra, come Breitbart), anche redatti da una sola persona, all’interno del panorama mediatico britannico. Nei loro post producono nuove interpretazioni dei fatti, creando una narrazione alternativa a quella dei media mainstream partendo dallo stesso materiale. È raro trovare una statistica o una citazione estremamente erronea in un sito come the Canary, perché si impegnano a fare verifiche e incrociare le fonti, non diffondendo bufale, spiega Waterson. Un metodo di approccio alle notizie, in cui le linee tra attivismo e giornalismo sono sfocate, incredibilmente efficace nel costruire un pubblico:

    Così come i “like” di Breitbart hanno fatto irruzione nel mainstream durante le elezioni presidenziali americane del 2016 sfruttando l’assenza di notizie virali di destra, le elezioni generali (britanniche) del 2017 stanno portando traffico record a siti di informazione di sinistra alternativa che sostengono Corbyn, veicolando storie senza le troppe sfumature dei media che rimangono legati alle tradizioni del giornalismo mainstream.

    Waterson cita gli esempi di Another Angry Voice, The Canary, Evolve Politics e Skwawkbox.

    Una selezione di contenuti da AnotherAngryVoice, Skwawkbox, and Evolve Politics, via BuzzfeedNews

    «Le persone sanno che vengono ingannate, ma lavorano sodo e non hanno il tempo di pensare a tutto», dice Thomas G Clark, autore di Another Angry Voice al giornalista: «quindi a loro piace molto avere un ragazzo là fuori che possa dare un taglio alla propaganda e mettere i contro-argomenti in articoli e infografiche da condividere».

    Matt Turner, studente all’Università di Nottingham e assistente redattore di un altro sito dell’"alt left” molto virale come Evolve Politics, spiega che gli elementi chiave in ordine crescente del proprio lavoro sono tre: critiche sulla copertura politica della BBC, articoli che evidenziano l’ipocrisia da parte dei politici conservatori e la denuncia pubblica di quelle persone che all’interno del partito laburista minano la leadership di Corbyn attraverso i media: «Il nostro modo di scrivere non è senza pregiudizi, ma presentiamo un punto di vista legittimo». Posizione ribadita anche da Kerry-Anne Mendoza, redattrice del Canary, il sito più importante di questa galassia, quando le viene fatta una domanda sul suo approccio alla copertura delle notizie: «Siamo assolutamente parziali, proiettati a favore della giustizia sociale, degli stessi diritti. Sono tutte cose non negoziabili». Per questo fatto, Mendoza aggiunge anche che è felice di criticare i laburisti quando si distanziano da queste posizioni. «Si tratta di essere positivi più che sbilanciati», afferma Steve [ndr, non ha voluto indicare il suo cognome a BuzzfeedNews] per spiegare l’approccio del suo sito, Skwawkbox. «Cerchiamo di mostrare che quello che viene detto non è necessariamente tutta la verità. Non mi sento un cheerleader di Corbyn, presento una serie di fatti, un modo diverso di guardarli». Nei suoi post Skwawkbox riporta spesso storie che sembrano provenire direttamente da fonti interne alla leadership del partito laburista. L’impressione, scrive Waterson, è che i siti “alt” vengano utilizzati per diffondere i messaggi del leader.

    In definitiva, questi siti, che devono il loro successo soprattutto a Facebook, stanno riempiendo il vuoto lasciato dai media mainstream orientati a sinistra, percepiti lontani dalle richieste sempre più radicali di molti dei loro lettori, spiega Matt Zarb-Cousin, per dieci mesi portavoce di Corbyn prima di dimettersi a marzo. Newstatesman o BBC, un tempo ritenuti vicini ai laburisti, sono stati attaccati per le loro posizioni anti-Corbyn.

    Qualunque cosa accada, i laburisti e il resto dei media dovranno sempre più affrontare l'influenza di questi siti sui loro membri e lettori per il ruolo che svolgono nella formazione di ogni narrazione post elezioni. Come sostiene Zarb-Cousin, l'ex portavoce di Corbyn: «Se c'è uno spazio nel panorama dei media per il SUN, allora c'è anche per il Canary».

    Il "fallimento" dei media mainstream nella lettura del voto

    Prima delle elezioni, Matthew Goodwin, professore e co-autore del libro Brexit: perché il Regno Unito ha votato per lasciare l'Unione europea, aveva twittato che il partito laburista, con a capo Jeremy Corbyn, non avrebbe raggiunto il 38%. E se questo fosse successo, avrebbe mangiato il suo libro.

    I laburisti hanno, però, raggiunto il 40% e, dopo diverse richieste sui social di mantenere la parola, Goodwin ha dovuto rispettare la sua scommessa.

    Perché i giornalisti, i commentatori e gli esperti politici non sono riusciti a prevedere l’esito delle elezioni o a captare che cosa stava succedendo?, si chiede Charlie Beckett su Medium.

    Non abbiamo imparato nulla dalla lezione di Brexit? Siamo così schiavi di indicatori che si stanno rivelando inadeguati come i sondaggi di opinione? O l’“elite mainstream” non è riuscita a uscire dalla sua bolla di Londra o Twitter? Dedichiamo troppo tempo nel coprire la campagna ufficiale e non ci facciamo sforzi sufficienti per capire le problematiche e ciò che davvero preme e interessa alle persone.

    Anche quando è stata riportata la voce degli elettori, prosegue Beckett, è sembrata più una rappresentazione frutto di narrazioni pre-confezionate che di un ascolto genuino. Invece, focus group, condotti da società come Britain Thinks, sono riusciti a intercettare alcuni cambiamenti sfuggiti ai media mainstream, come il rinnovamento in atto all’interno del partito laburista (a differenza di quello conservatore), il crollo di Ukip e lo spostamento di alcuni collegi ai laburisti o ai conservatori, il recupero di Corbyn ma la maggiore fiducia in Theresa May come primo ministro, il fatto che non si sarebbe trattata di un’elezione sulla Brexit.

    Queste elezioni, scrive ancora Beckett, hanno evidenziato che si sta ridimensionando la centralità dei giornali, come mostrato dal fatto che i principali candidati non abbiamo voluto farsi intervistare sui grandi media o che i lettori sono stati meno permeabili ai toni allarmistici e paternalistici dei giornali (che anzi si sono ritorti contro, come nel caso delle persone che si sono organizzate sui social per sfidare la propaganda di Sun e Daily Mail).

    Cosa fare? Abbandonare le convinzioni precedenti? Rischiare di sostituire vecchie parole d’ordine con nuovi miti freschi freschi? Beckett propone di prestare maggiore attenzione alla disinformazione diffusa sempre più massicciamente da attivisti di destra e di sinistra, di riflettere sull’uso di Twitter come strumento di disintermediazione e contemporaneamente di frammentazione e polarizzazione ("rispecchia gli antagonismi reali o li approfondisce?") e di migliorare l’approccio editoriale per riavvicinare i politici e riconquistare le fiducia delle persone.

    Foto in anteprima via Newstatesman

    Segnala un errore
    LINEE GUIDA AI COMMENTI

    “Trump sarebbe Presidente anche in un mondo senza fake news”

    [Tempo di lettura stimato: 6 minuti]

    Quando contro ogni previsione, lo scorso novembre Donald Trump è diventato presidente degli Stati Uniti, smentendo sondaggi e analisi di esperti, diversi commentatori avevano individuato la ragione del suo successo nella diffusione delle fake news. Il magnate americano era riuscito a sconfiggere Hillary Clinton perché Facebook aveva favorito la diffusione massiccia di false notizie e contribuito alla disinformazione, i media mainstream avevano fallito e il fact-checking era nulla più che un esercizio inutile e irrilevante.

    A tal proposito, alcune riflessioni subito dopo le elezioni invitavano a valutare vari fattori:

    • Una ricerca del Pew Research Centre, aveva mostrato che il 62% degli adulti americani si informava tramite i social media.
    • Le notizie false più popolari avevano una diffusione su Facebook nettamente superiore rispetto agli articoli dei media mainstream (erano queste le conclusioni di uno studio di Buzzfeed, rivelatosi, però, come dimostrato e detto anche in altri nostri post, poco attendibile perché il campione utilizzato era troppo piccolo per poter essere generalizzato, come ammesso dallo stesso autore della ricerca).
    • Molte persone che leggono informazioni non verificate finiscono per crederci.
    • Le fake news più discusse tendevano a favorire Donald Trump su Hillary Clinton.

    In altre parole, seguendo questo ragionamento, Trump non sarebbe mai diventato presidente degli Usa senza l’aiuto decisivo delle fake news.

    Leggi anche >> L’odio in politica e la sfiducia nei media fanno più paura delle fake news

    Ma Social Media and Fake News in 2016 Election – uno studio a cura di due economisti, Matthew Gentzkow, dell’Università di Stanford, e Hunt Allcott, della New York University, pubblicato a gennaio – ha mostrato che, nelle elezioni presidenziali del 2016, i social media hanno avuto un impatto molto più piccolo di quanto si possa immaginare. Le notizie false a favore di Trump sono state condivise 30 milioni di volte, quasi il quadruplo di quelle pro-Clinton, ma sono state lette da una parte troppo esigua della popolazione americana per poter affermare con certezza che hanno influito sul risultato finale. Come ha detto Gentzkow in un'intervista a Report:

    Abbiamo fatto una serie di interviste, da cui è emerso che gli elettori americani al momento del voto si ricordavano in media soltanto una delle bufale circolate durante la campagna. E abbiamo scoperto che questa bufala, per influenzare concretamente il voto, sarebbe dovuta essere 36 volte più persuasiva di uno spot elettorale tradizionale. Quindi, in soldoni, Trump sarebbe presidente anche in un mondo senza fake news.

    Per quanto ci sia stata un’esposizione alle fake news, in un contesto in cui la televisione e la radio continuano a essere le principali fonti di informazione, le notizie false non hanno avuto una capacità di persuasione tale da poter capovolgere l’esito di un’elezione, scrivono gli autori della ricerca. «La maggioranza delle fake news proviene da piccoli siti web che non hanno una presenza significativa se non per storie politiche che vengono condivise su Facebook e altri social media», ha spiegato Gentzkow in un’altra intervista a Vox.

    «Non è possibile misurare con certezza quanto le notizie false influenzino il modo di votare dei cittadini», prosegue il ricercatore. Dire che c’è una maggiore esposizione alle fake news non dimostra che siano convincenti e in grado di orientare il modo di votare.

    Non è la prima volta che le tecnologie vengono percepite come una minaccia per la democrazia, scrivono i due ricercatori nello studio. Nel diciannovesimo secolo, quando l’abbassamento dei costi di stampa favorì la diffusione di quotidiani di partito, molti lamentarono che il ruolo di controllo del potere da parte dei giornali era stato definitivamente compromesso. Quando la radio e la televisione divennero dominanti, si disse che il potere sarebbe stato concentrato nelle mani di pochi e che a essere favoriti sarebbero stati i candidati più carismatici e telegenici. Negli anni 2000, l’avvento delle notizie online ha generato una nuova serie di timori, “tra cui l’eccessiva diversità di punti di vista, che avrebbe reso più facile per persone che la pensano alla stessa maniera creare ‘camere dell’eco’ o ‘bolle di filtraggio’, dove escludere le prospettive contrarie”. In un articolo scritto nel 2011 con Jesse Shapiro, Gentzkow aveva sostenuto che il fenomeno delle camere dell’eco era stato sovradimensionato. Oggi, spiega il ricercatore, “la questione è ancora aperta, probabilmente si tratta di un fenomeno ancora sopravvalutato, di certo non c’è uno sguardo veramente definitivo sui dati raccolti finora”.

    La ricerca

    Nella ricerca sono stati utilizzati tre approcci diversi per poter analizzare l’impatto delle fake news sulla campagna elettorale statunitense: 1) l’analisi di un database di 156 notizie false raccolte da tre siti che si occupano anche di fact-checking e fake news come Snopes, Politico.com e Buzzfeed per misurare l’esposizione media dei cittadini americani alle fake news; 2) la valutazione del traffico sui siti web proveniente dai social media; 3) un’indagine statistica online su un campione di 1200 elettori subito dopo le elezioni.

    Tutti gli approcci seguiti suggeriscono che:

    • Ogni elettore americano è stato esposto a poco più di una notizia falsa durante la campagna elettorale, con una maggiore esposizione agli articoli pro-Trump rispetto a quelli pro-Clinton.
    • Gli indecisi sono stati i cittadini meno propensi a credere alle notizie ideologicamente o politicamente polarizzate.
    • Le fake news potrebbero aver inciso spostando centesimi di punti percentuali, una dimensione molto più piccola del margine di voti ottenuto da Donald Trump su Hillary Clinton negli Stati decisivi per la sua vittoria finale e, dunque, troppo esigua per decidere i risultati di un’elezione.

    Leggi anche >> Trump ha vinto grazie a Facebook? Ma LOL

    Nell’individuare le notizie false, i due ricercatori hanno fatto riferimento a diverse tipologie di disinformazione, dai contenuti falsi al 100% a quelli fuorvianti o manipolati. Sono stati presi in considerazione tutti gli articoli pubblicati su Snopes con tag a Trump e Hillary Clinton, su Politico con riferimento alle elezioni presidenziali in generale e, infine, 21 post, segnalati da Buzzfeed, che hanno avuto grande forza di coinvolgimento su Facebook. Delle 156 storie raccolte, 115 erano a favore di Trump e sono state condivise su Facebook 30 milioni di volte, 41 erano notizie false pro-Clinton per un totale di 7,6 milioni di condivisioni. Considerato che ogni condivisione su Facebook genera in media 20 visite sulla pagina del sito che ha pubblicato l’articolo, i 38 milioni di condivisioni di notizie false raccolte dagli autori della ricerca si traducono in 760 milioni di visite di pagine. Questo significa, scrivono i due ricercatori, che ogni notizia falsa pubblicata è stata visitata in media 3 volte da ogni cittadino adulto americano.

    Contestualmente, è stato analizzato il traffico sui siti che hanno pubblicato notizie false proveniente direttamente dai social media nel mese in cui si sono svolte le elezioni (cioè tra la fine di ottobre e la fine di novembre 2016). Sono stati presi in considerazione i dati di 690 siti di informazione e 65 pagine che hanno diffuso fake news raccolti dal sito Alexa.com. I primi, con oltre 3 miliardi di impression, hanno nettamente sovrastato i siti di fake news, che hanno raggiunto 159 milioni di impression, 0,64 per ogni cittadino adulto americano. Inoltre, solo il 55% degli articoli pubblicati da questi siti erano notizie false.

    Infine c’è stata l’indagine statistica che ha coinvolto un campione di 1200 persone rappresentativo di tutta la nazione. Le persone sono state contattate durante e dopo le elezioni. Nel mese immediatamente precedente al voto, è stato chiesto loro di indicare quale era la loro dieta mediatica. È emerso che ognuno di loro dedicava in media poco più di un'ora al giorno per informarsi sulle notizie elettorali e che i social media erano la quinta fonte per utilizzo dopo la televisione, la radio e i giornali di carta e online. Solo il 14% degli intervistati ha indicato i social media come fonte primaria delle loro notizie sulla campagna elettorale. In sintesi, l’impatto dei social media è stato sopravvalutato.

    Considerati insieme, spiegano Gentzkow e Allcott, “questi risultati suggeriscono che i social media sono diventati sempre più utilizzati, ma la televisione continua a essere la fonte principale per le notizie politiche”.

    Dopo le elezioni, allo stesso campione sono mostrati alcuni titoli di notizie vere, false e inventate ed è stato chiesto a ognuno di indicare quali storie ricordavano di aver letto e a quali avevano creduto. L’indagine ha mostrato che gli articoli più letti e ritenuti credibili sono stati quelli che diffondevano contenuti verificati. Circa il 15% degli intervistati ha dichiarato di aver letto una notizia falsa e l’8% ha detto di averci creduto. Solo l’1,2% degli americani ha ricordato di aver visualizzato un articolo falso durante la campagna elettorale: lo 0,92% a favore di Trump, lo 0,23% a favore di Clinton.

    Tutti e tre gli approcci convergono, dunque, verso lo stesso risultato: è impossibile dimostrare che le fake news hanno avuto un ruolo decisivo nell’elezione del Presidente Trump. Questo non significa, però, spiegano gli autori della ricerca, che non esista una questione riguardante la diffusione di notizie non accurate o non verificate, che va oltre il tema delle fake news e coinvolge il mercato e il sistema dell’informazione e le modalità attraverso le quali i lettori si informano, alla ricerca di un “compromesso tra l’esigenza di un’informazione precisa e imparziale e l’utilità psicologica di trovare notizie che confermino la propria visione”.

    Immagine in anteprima via truepundit.com

    *Aggiornamento 10 giugno, ore 9:10 > Abbiamo inserito i riferimenti del virgolettato di Matthew Gentzkow, intervistato da Report nella puntata del 22 maggio 2017.

    *Aggiornamento 11 giugno, ore 11:55 > Erroneamente nella descrizione di un grafico era stato scritto che i social media erano la quinta fonte più utilizzata dopo radio e giornali di carta. Invece sono la quinta fonte dopo Tv via cavo, Network Tv, siti web e tv locali.

    Segnala un errore
    LINEE GUIDA AI COMMENTI

    Direttiva europea sul Copyright, a che punto siamo

    [Tempo di lettura stimato: 5 minuti]

    L'8 giugno la Commissione IMCO (mercato interno) del Parlamento europeo ha votato per l'adozione del suo parere sulla proposta di riforma della Direttiva Copyright. La riforma avanzata dalla Commissione europea ha inglobato alcune proposte estremamente discutibili, a partire dalla famigerata Link Tax, per finire con i filtri da imporre agli ISP (Internet service provider).

    La visione della Commissione europea pare considerare il cittadino solo come un consumatore, il cui compito è principalmente quello di consumare in funzione della realizzazione del Digital Single Market. In questo specifico ruolo il cittadino europeo alimenta la catena della distribuzione dei contenuti online, consentendo, secondo l’ottica della Commissione, la sopravvivenza dell’ecosistema digitale, che è visto come una catena di distribuzione che va dalle aziende ai cittadini. Il risultato è un approccio principalmente burocratico che moltiplica le licenze (e quindi i costi di transazione), con un pesante impatto negativo sull’innovazione e sui diritti fondamentali dei cittadini.

    Discussione in Parlamento

    Con il passaggio in Parlamento, la proposta di riforma è stata bersagliata da numerose critiche, che si sono focalizzate in emendamenti tesi a rimediare le storture presenti. Significativa la posizione di Jouland, della Commissione CULT (cultura), il quale ha evidenziato come la proposta ignori totalmente il ruolo anche di produttori degli utenti dei servizi digitali (user generated content).

    Si tratta di un ruolo che lo stesso Ofcom (autorità competente e regolatrice indipendente per le società di comunicazione) rimarcò nel 2013. Il processo di creative destruction di Internet, secondo l’Ofcom, porta sicuramente alla distruzione di posti di lavoro e agevola la violazione dei diritti, ma nel contempo offre numerose possibilità di realizzare nuovi modelli di business (crowdfunding, volontariato, servizi di distribuzione e advertising, ecc..), stimola la partecipazione politica e sociale, alimenta il dibattito di massa, la condivisione della cultura, crea nuove opportunità nel settore educativo, sanitario e dei media locali. Per non parlare delle nuove occasioni di business fornite agli operatori storici di contenuti (incumbents). Il rapporto Ofcom (ricordiamo che è del 2013) evidenzia le oltre 3000 aziende digitali nate grazie ad Internet, con circa 50mila dipendenti, nel settore degli UGC (user generated content).

    Di tutto ciò nella proposta della Commissione non c’è un accenno, un riferimento, una considerazione, viene tutto ignorato per focalizzarsi sulla “necessità” di tutelare i business esistenti dall'impatto delle nuove tecnologie, considerando altresì il copyright l’unico possibile meccanismo adatto a garantire la promozione della creatività e dell’innovazione. Una posizione ormai non più sostenibile e nemmeno più sostenuta (se non dall'industria del copyright che, ovviamente, lo fa per i propri interessi economici).

    La parlamentare Comodini Cachia, relatrice per il Parlamento europeo della proposta di Direttiva, ha presentato una modifica alla norma che introduce la Link Tax, nonché altrettanto significative modifiche all’articolo 13 che introduce i filtri per gli intermediari della comunicazione.

    Ancora, il relatore Boni della Commissione LIBE (libertà civili) ha proposto un compromesso che non si ponga in contrasto con le attuali norme e la giurisprudenza comunitaria, e, quindi, sia rispettoso del divieto di un obbligo generale di controllo dei contenuti immessi online. L'obbligo di utilizzo di tecnologie di riconoscimento dei contenuti viene, quindi, rimosso, mantenendo la necessità che le misure adottate dalle aziende siano rispettose dei diritti fondamentali degli utenti (libertà di espressione, privacy). La proposta di compromesso dichiara, inoltre, che gli Stati membri devono garantire l’accesso ad un tribunale od autorità indipendenti e che i titolari dei diritti debbano rispondere in caso di reclami contro eventuali rimozioni.

    Altri emendamenti mirano ad ampliare le magre eccezioni proposte dalla Commissione per il text e data mining e l’attività didattica. A questo proposito è interessante notare che il Regno Unito ha una normativa diversa (limita solo il text e data mining solo se a fini di lucro), e quindi non presenta le limitazioni della proposta europea, per cui ampliando ulteriormente l’eccezione potrebbe accogliere, dopo la Brexit, le aziende che vogliono operare nel campo del text e data mining.

    Proseguire sulla strada tracciata dalle proposte in materia per l’Unione porterebbe, quindi, a perdere possibili nuovi aziende e nuovi posti di lavoro.

    In relazione al nuovo diritto da attribuire agli editori, Catherine Stihler argomenta che la norma non è sufficientemente motivata, ritenendo sufficiente l’estensione della possibilità di agire per la tutela dei propri diritti anche agli editori (cioè la proposta di Comodini Cachia): “ritiene che non sia necessario creare un nuovo diritto, giacché gli editori godono del pieno diritto di autoescludersi dall'ecosistema in qualsiasi momento ricorrendo a semplici mezzi tecnici”. Il chiaro riferimento è all’accusa di “rubare” contenuti da parte degli aggregatori di News (come Google News), che può essere facilmente risolta inserendo un banale comando all’interno del file robots del sito del giornale.

    A fine maggio si viene a conoscenza di un altro testo preparato dal parlamentare Pascal Arimont (PPE), considerato dalla parlamentare Julia Reda una provocazione, in quanto non solo ignora i compromessi raggiunti, ma addirittura si presenta peggiorativo rispetto allo stesso testo iniziale della Commissione europea.

    Il testo di Arimont, infatti, prevede che i filtri siano applicati non solo ai servizi che ospitano una “grande quantità di contenuti” (come da proposta della Commissione, tra l’altro una definizione non proprio chiarissima), ma anche a quelli che semplicemente ne facilitano la disponibilità in rete anche se non li ospitano. Ciò significa che i filtri dovrebbero applicarsi anche ad un semplice blog che embedda o semplicemente linka (ricordiamo che la sentenza GS Media della Corte di Giustizia ha aperto la strada alla responsabilità da link) contenuti da altri siti. Prevede, inoltre, una sola eccezione per le micro-imprese in attivo da meno di 5 anni (dal sesto anno in poi dovranno rispettare la norma).

    Inoltre, la proposta di Arimont considera qualsiasi servizio online che utilizza algoritmi per migliorare la presentazione dei contenuti (come ad esempio l’ordinamento alfabetico) direttamente responsabile di qualsiasi violazione del copyright. In tal modo riscrivendo la responsabilità degli intermediari.

    Il parere della Commissione IMCO


    Catherine Stihler
    , relatrice della Commissione IMCO, si è occupata di cercare un dialogo di compromesso tra le varie posizioni. Con il voto (qui analisi di Julia Reda sul parere adottato), quindi, il testo di Arimont è stato respinto.

    Per quanto riguarda l’eccezione su text e data mining (art. 3) è stata adottata la versione che limita l’estrazione a chi legalmente acquista il contenuto. In poche parole l’Europa invita le startup a spostarsi al di fuori dell’Europa (Regno Unito?).

    Sul Press Publisher Right (diritto degli editori, art. 11), è stata votata la proposta iniziale della Commissione europea con alcune modifiche. In particolare il nuovo diritto a favore degli editori non sarà retroattivo (qui sotto infografica che indica i principali problemi di questo nuovo diritto).

    Infografica via Quidos

    La Commissione ha raggiunto, invece, un utile compromesso sull'art. 13 che impone il filtraggio dei contenuti immessi dagli utenti, adottando la proposta del parlamentare Boni sopra menzionata, che non impatta sulla normativa in materia (a differenza della proposta iniziale della Commissione) e realizza un adeguato bilanciamento tra i diritti delle aziende e quelli degli utenti.

    Ottima notizia è, inoltre, l’inclusione di una specifica eccezione per gli user generated content (vedi immagine sotto) al fine di consentire la citazione di contenuti o l'uso di estratti di opere, ai fini di critica, intrattenimento, illustrazione, caricatura o parodia. In sostanza finalmente i remix, le Gif, i "meme", le compilation di parti di brani o video, diventano legali.

    Viene introdotta, inoltre, un'eccezione per la libertà di panorama, che permette la condivisione online di fotografie scattate in luoghi pubblici, che potrebbero violare i diritti di architetti o proprietari di edifici. Si tratta di questioni che la Commissione europea non aveva considerato, ma che sono state aggiunte alla discussione nel Parlamento.

    Eccezione per gli user generated content

    Adesso si attendono i rispettivi pareri delle altre Commissioni:

  • CULT (Cultura) il 21 giugno.
  • LIBE (Libertà civili e giustizia) il 29 giugno.
  • ITRE (Industria e ricerca) l’11 luglio.
  • JURI (Diritto) 28 settembre.
  • Segnala un errore
    LINEE GUIDA AI COMMENTI