Codice europeo contro l’hate speech: i primi risultati e cosa non va

[Tempo di lettura stimato: 6 minuti]

Alcuni mesi fa abbiamo dato conto della nascita del Codice di condotta sulle espressioni illegali online di incitamento all'odio, firmato tra la Commissione europea, tramite il commissario Vera Jourova, e quattro società tecnologiche: Facebook, Youtube, Twitter e Microsoft.

Anche in considerazione del fatto che l’approccio utilizzato con questo codice, cioè la delega di funzioni alle principali aziende che offrono servizi online, sembra destinato a essere utilizzato per ulteriori problematiche, come potrebbe accadere per le “fake news”, diventa importare capire come sta funzionando.

Il 7 dicembre il commissario Jourova ha presentato la prima relazione sul funzionamento del Codice di condotta.
Con il Codice, che non è giuridicamente vincolante, le aziende tecnologiche firmatarie hanno preso l’impegno di verificare entro le 24 ore le segnalazioni di discorsi di hate speech, cioè di incitamento all'odio, e prendere gli opportuni provvedimenti in base ai propri termini di servizio (TOS) e le leggi in materia, in particolare la decisione quadro del 2008 su razzismo e xenofobia.

La relazione, tratta dall'operato di 12 ONG presenti in 9 Stati membri, si basa su un campione di 600 notifiche effettuate in un periodo di 6 settimane. È da notare che le ONG ricevono finanziamenti dalla stessa Commissione per eseguire questo compito di segnalazione di contenuti.
Dai dati si rileva un 28,8% di rimozione di contenuti a seguito di segnalazioni. Alcune ONG segnalano una percentuale di “successo” del 60%, altre al di sotto del 5%.
Nei due terzi delle segnalazioni i revisori delle aziende non hanno ritenuto che il contenuto fosse illegale e nemmeno in violazione dei termini di servizio. Nessuna delle società ha raggiunto l’obiettivo di rispondere alle segnalazione nelle 24 ore (l’80% delle risposte arriva nelle 48 ore).

notifiche

Ci sono notevoli divergenze tra i vari Stati, cosa che dipende dalla estrema diversità tra le normative nazionali. Un rappresentante delle ONG ha evidenziato che determinare ciò che è illegale è un lavoro complesso e spesso finisce per diventare estremamente soggettivo, dipendendo molto dal livello di preparazione del revisore. Si tratta del classico problema che si presenta nel caso un cui un compito prettamente demandato ai giudici viene poi delegato a privati.
Le divergenze tra le varie legislazioni nazionali, e quindi la diversità di conclusioni dei giudici nazionali, fa il resto. Non è raro trovare che in uno Stato un determinato episodio viene considerato illegale, mentre non lo è in un altro. Quindi trarre conclusioni significative a un livello transnazionale, nella cosiddetta “giurisdizione” di un servizio online come Facebook, diventa veramente difficoltoso.

Di contro, però, una questione particolare che finisce in tribunale può avviare un dibattito sociale che, se ripreso adeguatamente dai media, può essere educativo per l’intera popolazione. Una decisione affidata a un revisore aziendale si chiude in poco tempo e, non finendo mai in un tribunale e quindi all'attenzione del pubblico, non porta ad alcun cambiamento del sentire sociale.
È evidente, quindi, che il giudizio del revisore aziendale sostituisce il compito di un tribunale senza però creare le medesime opportunità di crescita sociale. Non dimentichiamo che si discute di esercizio delle libertà fondamentali dei cittadini, come la libertà di espressione.

Perciò appare strano che poi il commissario Jourova, nonostante la scarsità di dati presenti nella relazione, minacci le aziende firmatarie di procedere con un’applicazione più rigorosa, sia in termini di tempo che di “tasso di successo” (rimozioni). Il Commissario chiede alle aziende di fare di più, per dimostrare che l’approccio “non legislativo” funzioni.

A questo proposito sorgono una serie di dubbi. Innanzitutto la Commissione pare chiedere decisioni rapide e decise (rimozioni), ma non sembra preoccuparsi più di tanto della qualità della decisioni. Cioè, si tratta effettivamente di contenuti illeciti? Inoltre, se l’approccio non legislativo si dimostra inefficace (cioè poco rapido), cosa accadrà?

notifiche-contenuti

Il problema principale, come già accennato, è la differenza tra le varie legislazioni nazionali che non consente di estrapolare una definizione universale di hate speech (incitamento all'odio, per una disamina delle problematiche specifiche si può leggere lo studio del Gruppo Articolo 19). All'interno di espressioni del genere, a seconda dei casi, c'è un eccesso di situazioni estremamente diverse che dovrebbero ricevere risposte differenti. Secondo lo studio finanziato dalla Commissione europea, ad esempio, solo due paesi criminalizzano l’incitamento all'odio basato sul colore della pelle e solo 4 l’odio basato sulle origini.

La conclusione è che al momento non esiste un “diritto dell’Unione” in materia, che le aziende coinvolte potrebbero applicare. Lo scopo del Codice, infatti, non è affatto quello di garantire l’applicazione della legge, quanto bensì quello di imporre alle aziende di prendere l’iniziativa in materia e il risultato è che la aziende applicano semplicemente i loro termini di servizio e quindi le loro specifiche definizioni di hate speech, con valutazioni estremamente soggettive e differenti da caso a caso.

Infatti, secondo la Commissione europea, se un’azienda limita la libertà di espressione di un cittadino, questi è tutelato dalla Carta dei diritti fondamentali dell’Unione europea solo se tale limitazione avviene in base a un preciso obbligo giuridico e non invece se avviene in base ai termini di servizio dell’azienda.
Quello che la Commissione vuole, in conclusione, sembra essere semplicemente che le aziende che fungono da intermediari della diffusione delle comunicazioni (messaggi, post, video, ecc…) degli utenti prendano l’iniziativa di rimuovere tutto ciò che appare fastidioso. E, paradossalmente, nel momento in cui le aziende private sono titubanti nelle rimozioni, il Commissario le minaccia di fare di più.

rimozioni

Avevamo già evidenziato in un precedente articolo i troppi problemi del Codice di condotta, la scarsa trasparenza dell’accordo e di fatto l’impossibilità per le associazioni per i diritti civili di presentare le proprie osservazioni critiche (al punto che Access Now ed EDRi hanno preferito abbandonare il tavolo di lavoro, nel quale avevano solo il ruolo di osservatori a differenza delle aziende), la privatizzazione di funzioni statali, il rischio censura.
Dobbiamo, purtroppo, notare che l’approccio della Commissione è estremamente spregiudicato, insistendo nel lasciare campo libero alle aziende private e spingendole nell'esercizio di poteri di censura anche dove queste aziende si rivelano restie. Non dimentichiamo, infatti, che il Codice obbliga le aziende di tecnologia a identificare e promuovere le “contronarrazioni” (“identifying and promoting independent counter-narratives, new ideas and initiatives and supporting educational programs that encourage critical thinking”), cosa che di fatto concede alle aziende carta bianca nel modificare il flusso delle notizie e promuovere alcune notizie a scapito di altre. Si tratta a tutti gli effetti di funzioni editoriali lasciate in mano ad aziende, come Facebook, che hanno un potere di manipolazione del pensiero critico degli individui che incide direttamente sui cittadini di più Stati contemporaneamente.

Sotto questo profilo possiamo dire che proprio Facebook mostra di esercitare i "poteri" censura in maniera fin troppo disinvolta, giungendo a cancellare addirittura immagini simbolo della guerra del Vietnam e a alterare il flusso delle notizie riducendo quelle destinate al pubblico conservatore.

L’approccio utilizzato dalla Commissione europea col Codice di Condotta sembra quindi inefficace, perché di fatto non risolve alcun problema, limitandosi a ottenere dalle aziende la ripulitura di Internet dallo “sporco” online, senza nemmeno entrare nel merito di cosa sia sporco, mirando così a un risultato puramente propagandistico (vedi che funziona?), casomai da spendere in periodo elettorale.
Di contro, risulta lesivo dei diritti dei cittadini, i quali non solo non hanno potuto partecipare al dibattito formativo del Codice (tramite le associazioni per i diritti civili), ma si vedono limitati i loro diritti (libertà di espressione) sulla base dei termini di servizio delle aziende online e quindi in base a decisioni prese da personale poco preparato e non idoneo a effettuare valutazioni complesse che richiedono un bilanciamento dei diritti (compito difficile anche per un magistrato che studia per anni). Inoltre, non c’è alcuna tutela in caso di abusi o di limitazioni delle libertà di espressione, in quanto il Codice di condotta non prevede obblighi giuridici per le aziende.

Occorre, infine, evidenziare che di questa problematica se ne parla, purtroppo, ben poco. Non molti hanno contezza dell’esistenza di detto Codice e dei pericoli che rappresenta. Non dimentichiamo, infatti, che le limitazioni sui discorsi d’odio sono lo strumento principale utilizzato dai governi per la criminalizzazione del dissenso politico, così come accadde nel Sudafrica dove, appunto, ai tempi dell’apartheid, vennero usate per criminalizzazione la critica al dominio dei bianchi.
Anche Ben Emmerson, relatore speciale dell’ONU per la lotta al terrorismo, ha messo in guardia contro il rischio di abusi per reprimere l’opposizione politica e il dissenso ideologico. Le opinioni estreme, secondo Emmerson, non dovrebbero mai essere criminalizzate se non associate a violenza, richiamando la necessità a utilizzare definizioni stringenti e specifiche e rendere disponibili ricorsi giudiziari.

Per capire quanto sia delicata la materia che questo Codice pretende di regolamentare, occorre fare alcuni esempi concreti. Le aziende del web sono costantemente alla prese con decisioni critiche: se una persona in una foto è realmente nuda, se una foto di Hitler è razzismo o un commento pubblico, se la foto di una pistola è minacciosa oppure è solo la copertina di un album di musica rap.
Immaginate, ad esempio, un commento su Twitter dove si suggerisce che le persone in fuga dalle guerre potrebbero essere dissuase con una frontiera di teste di maiale infilzate su bastoni, con chiaro riferimento agli islamici. Ebbene tale proposta venne dall'eurodeputato ungherese Schopflin, dello stesso partito europeo del ministro degli interni tedesco De Maiziere. Quest’ultimo è la medesima persona che accusa le aziende tecnologiche americane di non fare a sufficienza per eliminare l’odio online. Eppure, la reazione alla proposta dell’ungherese da parte del ministro tedesco e di tutto il gruppo PPE al Parlamento europeo è stata di assoluto silenzio.
I peggiori discorsi d'odio vengono dalla politica, contro omosessuali, ebrei, neri, stranieri, rom, islamici, peggiori proprio perché contro questi discorsi delle élite difficilmente si prendono provvedimenti, e sono da questi discorsi, non certo quelli della gente comune, che sono nate l'esclusione, la segregazione e il genocidio.

Per poter ritenere almeno accettabile il Codice di condotta occorrerebbero varie modifiche. Innanzitutto, prevedere maggiore trasparenza, con la predisposizione di un elenco online pubblico nel quale dovrebbero essere inserite le decisioni di rimozione, con una valutazione sul perché quel contenuto è ritenuto illecito e l’indicazione di chi ha segnalato il contenuto nel caso in cui siano funzionari governativi oppure ONG (questo per controllare che non siano gli stessi governi ad abusare del Codice segnalando contenuti che esprimono posizioni di dissidenza politica). L’elenco così redatto potrebbe essere soggetto ad analisi da parte di esperti terzi.
Ovviamente occorrerebbe la possibilità di impugnare il provvedimento dell’azienda, nel caso in cui lo si ritenga ingiusto.

Segnala un errore
LINEE GUIDA AI COMMENTI