Perché l’accordo con i social per bloccare i contenuti terroristici è sbagliato

[Tempo di lettura stimato: 6 minuti]

 

Dagli inizi di dicembre 2016, le principali aziende di social media hanno raggiunto tra loro un accordo per il blocco dei contenuti "terroristici". Facebook, Twitter, Youtube e Microsoft (proprietario di LinkedIn) si sono impegnate alla condivisione degli hash dei contenuti, al fine di identificare quelli di matrice terroristica e rimuoverli dai loro server. Le quattro aziende formeranno un database comune di “impronte digitali” per le immagini relative a reclutamento di terroristi, promozione di attività terroristiche o comunque video e immagini relative a terroristi e loro attività.

Facebook ha dato l’annuncio dell’iniziativa il 5 dicembre 2016, quindi dobbiamo supporre che sia già in atto, anche se non è chiaro come funzionerà. In teoria la segnalazione di un contenuto in violazione della policy di un'azienda dovrebbe comportare una rimozione anche sui server delle altre aziende, ma non è detto che sia proprio così. Di sicuro è solo che le impronte digitali saranno condivise.

Le aziende coinvolte sono le medesime che hanno firmato, con la Commissione europea, il Codice di condotta per le espressioni di istigazione all'odio online e, per quanto le stesse aziende non ne evidenzino la connessione, è pacifico che questa nuova iniziativa sia una conseguenza di quel codice. Non dimentichiamo che la creatura di Zuckerberg è stata citata in giudizio in Germania per non aver rimosso contenuti di odio e la pressione delle istituzioni europee e degli Stati nazionali (Germania in primis) si fa sentire.

Ormai la regolamentazione di Internet si è avviata su questa strada. Con la minaccia di una normativa più stringente, definita dai legislatori europei – è in discussione una direttiva per il contrasto al terrorismo che dovrebbe essere finalizzata nel corso del 2017 – e nazionali, si “invitano” le aziende principali del web a firmare codici di condotta, accordi tra aziende, iniziative di collaborazione tra privati al fine di rimuovere i contenuti che istigano all'odio in rete, i contenuti terroristici e anche quelli in violazione del copyright. In tal modo si passa da un modello punitivo ex post (cioè repressione del reato) all'applicazione di modelli di prevenzione ex ante, basati sulla sorveglianza del web e il filtraggio della attività degli utenti in rete, delegato alle principali piattaforme online.
Come già evidenziato con riferimento al Codice di condotta per l’odio online, questo approccio presenta numerose problematiche.

Una regolamentazione a porte chiuse

La regolamentazione (cioè la stesura dei codici di condotta, degli accordi, ecc.) avviene generalmente a porte chiuse, tra le aziende, o tra le aziende e le istituzioni, senza la partecipazione dei cittadini (tramite le associazioni per i diritti civili). L’ovvia conseguenza è che tali accordi finiscono per tenere in conto principalmente gli interessi delle aziende e non certo i diritti dei cittadini. Le istituzioni e i politici possono, quindi, sbandierare una iniziativa che, a parole, risolve un problema anche piuttosto sentito dai cittadini senza dover subire critiche alla soluzione stessa. In alternativa la Commissione, ad esempio, dovrebbe porre in consultazione la bozza di regolamentazione (direttiva, regolamento) e subire le critiche dei cittadini tramite le loro associazioni, all'interno di un procedimento di formazione delle leggi democratico e trasparente.
Evidentemente si preferisce un approccio più opaco.

La compressione dei diritti civili

La delega di specifiche funzioni statali alle aziende private comporta inevitabilmente un contrasto con i diritti civili dei cittadini e spesso la riduzione degli spazi di esercizio di tali diritti, in particolare della libertà di espressione. Ma non solo. La delega per la rimozione di contenuti potrebbe portare anche a violazioni della normativa anticoncorrenziale, dando eventualmente la possibilità alle aziende di rimuovere o ridurre le visualizzazioni di contenuti di aziende concorrenti.

L'inesistenza di rimedi o impugnazioni

Nel momento in cui la rimozione di un contenuto dipende dalle policy delle aziende (e quindi da codici di condotta trasfusi nelle policy), non esistono rimedi di alcun tipo a tali rimozioni che i cittadini possano attivare. Le aziende possono, eventualmente, prevedere una procedura di reclamo, deciso però dalle aziende stesse e in alcun modo impugnabile.

Problemi di definizioni

Ovviamente, questo approccio dato da accordi tra privati firmati in stanze chiuse è sostanzialmente modellato sugli accordi in materia di pedopornografia risalenti al 2015. La tecnologia utilizzata è la medesima, un software per rilevare le firme digitali di video e immagini, cosa che funziona piuttosto bene nel caso della pedopornografia, visto che lì il problema è dato proprio dall'immagine in sé. La differenza principale è che mentre la pedopornografia è illegale, non esiste una definizione precisa di contenuti di istigazione all'odio o di contenuti terroristici.

In molti casi i contenuti terroristici sono perfettamente legali, come ad esempio gli articoli che riguardano gli aiuti umanitari portati in zone di guerra. È ovvio che la nazione attaccante potrebbe considerare quei video come contenuti terroristici. La conseguenza è che ci potrebbero essere numerosi abusi e falsi positivi o negativi e l’etichettatura di contenuti terroristici potrebbe dipendere da fattori esterni (tipo la nazionalità dell’azienda).

In altre parole, la propaganda terroristica non è definibile con una firma digitale di immagini. Propaganda non è solo il video della decapitazione di una persona (video che tra l’altro paradossalmente potrebbe addirittura essere controproducente alla propaganda terroristica, potendo innescare una reazione di ripulsa nelle persone), è, invece, qualcosa di diverso, fa leva sulle paure, i bisogni e le frustrazioni delle persone. La maggior parte del materiale video di propaganda dell’ISIS, ad esempio, non è affatto materiale che presenta violenze, anzi comprende immagini di vita quotidiana sotto il Califfato, con gente al ristorante e bambini nei campi da gioco. La propaganda comprende anche le strazianti immagini di case in rovina dopo attacchi aerei degli occidentali. Diventa quindi difficile identificare una firma digitale per contenuti di propaganda terroristica.

L'eliminazione di occasioni di discussione

Nel 2008 il senatore americano Lieberman (a capo della Commissione Sicurezza Interna) segnalò a Youtube dei presunti contenuti terroristici, ottenendo la cancellazione dell’account di un'associazione che si occupava di denunciare le atrocità commesse nel corso della guerra civile, mostrando immagini selezionate per focalizzare l’attenzione pubblica sulla guerra in corso. Secondo il senatore eliminando quei contenuti non si sarebbe alimentata la propaganda terroristica. In realtà con l’eliminazione di video di questo genere tutto ciò che si ottiene è far finta di nulla, ignorando semplicemente il problema.

L’account fu poi ripristinato con le scuse da parte di Youtube. La piattaforma web rispose a Lieberman precisando che l’azienda “incoraggia la libertà di parola e difende il diritto di ognuno di esprimere i propri punti di vista. Riteniamo che YouTube sia una piattaforma più ricca e più rilevante per gli utenti, proprio perché ospita una vasta gamma di punti di vista, e piuttosto che soffocare il dibattito, permettiamo ai nostri utenti di visualizzare tutti i contenuti accettabili e valutarli da sé. Naturalmente, gli utenti sono sempre liberi di esprimere il loro disaccordo su un particolare video, lasciando commenti o video in risposta”.

Lasciando tali video online, inoltre, è possibile innescare una discussione pubblica che potrebbe portare alla confutazione della propaganda, anche con argomenti satirici o parodistici. La cancellazione, invece, mostra che le democrazie occidentali hanno paura delle argomentazioni dei terroristi e potrebbe avere l'effetto di legittimare i terroristi.

In tale prospettiva è sintomatica la discussione realizzatasi a seguito della pubblicazione su Twitter di un post propagandistico a favore dell’ISIS, una vera e propria chiamata alle armi. Ebbene quel post ha ottenuto moltissime risposte che sono riuscite a ridicolizzare il messaggio propagandistico. Molto meglio che oscurare il contenuto.

La sottrazione di elementi di indagine

Questo approccio, mutuato dalla regolamentazione delle violazioni del copyright (ovviamente suggerito dall'industria del copyright e che ormai è divenuto uno strumento per affrontare qualsiasi problema online), non è necessariamente quello preferibile. La rimozione di contenuti che, invece, potrebbero essere utili ad indagini, può essere decisamente controproducente. In molti casi le autorità di polizia hanno ottenuto dei risultati proprio grazie ai contenuti presenti online. Ed è pacifico che la rimozione di un contenuto online non ha l'effetto di reprimere un’attività terroristica in atto. Non è che il terrorista si scoraggia!

Anche il direttore dell'FBI ha sostanzialmente detto che le informazioni fornite online, anche involontariamente, dai terroristi sono spesso utili per reprimere gravi reati. La rimozione di tali contenuti porterebbe soltanto a trasferire la comunicazione dei terroristi su piattaforme meno accessibili alle autorità, rendendo più difficoltose le indagini. Il blocco di un sito o di un contenuto terroristico è solo momentaneo, dicono gli esperti. Per fermare davvero un’attività terroristica occorre fermare le persone, non certo i siti.

All'interno della proposta di direttiva per il contrasto al terrorismo (nell'ultima bozza si propongono specifiche misure di web blocking in contrasto con la direttiva e-commerce), Internet è rappresentato in maniera negativa per la società, senza alcun riferimento al ruolo del web quale strumento per l’esercizio e la tutela dei diritti fondamentali degli individui (per maggiori informazioni si veda il rapporto di EDRi alla proposta di direttiva).

La nuova moda di favorire accordi sottobanco tra aziende, alle quali si delega la rimozione di contenuti “fastidiosi” online, casomai da sbandierare in campagna elettorale, è l’opposto di quanto prevede una democrazia. Sarebbe il colmo se per contrastare i terroristi le democrazie europee si incamminassero sulla stessa strada dei regimi autoritari, dove la libertà di espressione è sotto stretto controllo.

I am convinced that the only effective way to tackle terrorism is firmly rooted in the respect of fundamental and human rights. You need to have the widest and fullest possible support across the community for your efforts if they are going to work. The best way of securing that support is to show that your efforts are firmly rooted in the respect of people’s rights. That’s what we’re trying to defend.

Sir Julian King (Commissario alla sicurezza dell’Unione europea, 14/11/2016)

Foto anteprima via Techbakbak

Segnala un errore
LINEE GUIDA AI COMMENTI