Diritti Digitali

Francia, bocciata la legge che obbliga le piattaforme online a rimuovere contenuti di odio entro un’ora: una minaccia alla libertà di espressione

22 Giugno 2020 5 min lettura

author:

Francia, bocciata la legge che obbliga le piattaforme online a rimuovere contenuti di odio entro un’ora: una minaccia alla libertà di espressione

Iscriviti alla nostra Newsletter

5 min lettura

A seguito dell’impugnazione di un gruppo di parlamentari, il 18 giugno 2020 il Consiglio Costituzionale francese ha dichiarato incostituzionali alcuni articoli della cosiddetta legge Avia, approvata a luglio 2019 e adottata il 13 maggio 2020. La legge in questione, dal nome della deputata proponente, prevedeva degli specifici obblighi per le piattaforme del web e gli operatori di comunicazione, sulla falsa riga della NetzDG tedesca.

Il Consiglio Costituzionale ha cancellato parte dell’articolo 1, e gli articoli 3, 4, 5, 7, 8 e 9, nonché parte di altri articoli. Gli obblighi sono due:

  1. Obbligo di rimozione di contenuti terroristici o pedopornografici su segnalazione dell’autorità amministrativa entro 1 ora a pena di reclusione fino a 1 anno e 250mila euro di multa.
  2. Obbligo di rimozione dei contenuti di incitamento all’odio e di discriminazione razziale o sessuale entro le 24 ore dalla segnalazione di un qualsiasi utente a pena di multe fino al 4% del fatturato (massimo 1,25 milioni).

Anche se la diffusione di immagini pedopornografiche, l'incitamento all’odio e il terrorismo costituiscono gravi abusi che compromettono l’ordine pubblico e i diritti dei cittadini, secondo il Consiglio Costituzionale francese non si può dimenticare che le misure di contrasto possono interferire con la libertà di espressione. Nel caso specifico l’interferenza non è giustificata e risulta sproporzionata per vari motivi:

  • Assenza di garanzie sufficienti.
  • Imposizione di obblighi impossibili da soddisfare.
  • Responsabilità oggettiva e reato indefinito.
  • Conflitto di norme.

Il reato commesso dalla piattaforma che non rimuove non è sufficientemente definito, in quanto potrebbe essere semplicemente la conseguenza di una negligenza dell’operatore. Inoltre, la diffusione di contenuti di hate speech online soggiace già a altre regolamentazioni normative, per cui l’ulteriore obbligo finisce per essere ridondante e determinare possibili conflitti tra norme.

Soprattutto, il Consiglio contesta i tempi ridottissimi per le piattaforme del web nell’attuare le rimozioni, e il fatto che non vi sono definizioni certe per alcuni tipi di contenuti (come hate speech), con ciò rendendo impossibile alle aziende una valutazione corretta del contenuto. Tranne che per i contenuti pedopornografici, per i quali non esiste alcun contesto lecito, per tutti gli altri tipi di contenuti la liceità dipende sempre dal contesto quindi l’illegalità non è manifesta. Un eventuale ricorso contro la richiesta di rimozione non è sospensivo, per cui il periodo di tempo previsto dalla segnalazione non consente in alcun modo di ottenere una decisione di un giudice prima dell’oscuramento del contenuto. L’effetto è quello di obbligare le piattaforme, per non essere sanzionate, a governare i contenuti online sulla base di una segnalazione di un qualsiasi utente, senza la possibilità di accesso ad un’autorità competente, e quindi rimuovere tutti i contenuti dubbi con un grave impatto sulla libertà di espressione. In sostanza il rischio è che le piattaforme rimuovano i contenuti solo perché sono stati segnalati e non perché sono illeciti.

Anche nel caso in cui la segnalazione pervenga dall’autorità amministrativa (per i contenuti pedopornografici e terroristici) i tempi ridotti (1 ora) impediscono qualsiasi accesso legale, e quindi la misura è ritenuta dal Consiglio sproporzionata e in violazione della libertà di espressione.

La libertà di espressione, ricorda il Consiglio, è una condizione essenziale per la democrazia e una garanzia del rispetto dei diritti altrui. Per cui qualsiasi misura che va a impattare su tale diritto deve essere proporzionata. Il Consiglio con questo provvedimento cancella il cuore della legge, stabilendo inequivocabilmente che quel meccanismo di rimozione dei contenuti online è incompatibile con il principio fondante di ogni democrazia, la libertà di espressione.

Leggi anche >> La libertà di espressione nell’era dei social network

La delega alle aziende private

Già all’epoca si erano alzate numerose voci (qui le osservazioni di Article 19) sul rischio di possibili censure e limitazioni alla libertà di espressione online, confermate dal Consiglio evidentemente. Il presidente del gruppo Les Républicains au Sénat ha accolto con favore il provvedimento sostenendo che la legge era mal concepita dando un potere di censura mai visto alle aziende americane.

La decisione del Consiglio deve essere vista nella giusta ottica, la necessità che la regolamentazione dei diritti fondamentali dei cittadini non può essere delegata interamente alle aziende private, ma è compito di un giudice la valutazione degli illeciti online.

Questo aspetto è fondamentale, specialmente adesso, in un momento in cui sono in preparazione una serie di normative europee che, purtroppo, incorporano molte norme che di fatto delegano la regolamentazione dei contenuti online alle grandi piattaforme del web.

C’è da dire che la stessa Commissione europea nel dicembre del 2019 espresse un parere molto critico nei confronti della legge Avia, chiedendo le sospensione dell’adozione. La Commissione temeva che la legge avrebbe trasformato le aziende del web negli arbitri della legalità e della “verità” online, con effetti devastanti sulla libertà di espressione online, riteneva che le multe eccessive e i tempi ridotti determinavano la sproporzione della misura rispetto all’obiettivo (specialmente per le comunità no-profit come Wikipedia). Inoltre sosteneva che la legge avrebbe di fatto imposto un obbligo di monitoraggio generale dei contenuti online, in violazione della direttiva eCommerce. Infine riteneva che la legge si sarebbe sovrapposta alle norme del Digital Service Act in discussione a livello europeo. La moltiplicazione delle regolamentazioni dei contenuti di odio online determina inevitabilmente un quadro confuso non consentendo alle aziende di comprendere quale norma applicare. Queste osservazioni portarono solo a modifiche “cosmetiche” della legge.

In realtà, poi, la Commissione continua a perseguire una strada differente nella pratica. Ad esempio c’è il progetto di regolamento europeo sulla prevenzione della diffusione dei contenuti terroristici online (qui la proposta della Commissione), dove i triloghi si sarebbero dovuto concludere a marzo ma sono stati sospesi per la COVID-19. Con questo regolamento, fortemente voluto da Francia e Germania, le aziende del web devono sviluppare gli strumenti necessari per identificare e rimuovere (entro 1 ora) i contenuti terroristici (e in genere illeciti), e che si scambino tra loro i valori di “hash” per consentire il filtraggio globale di tali contenuti. Il riferimento è a tecniche di filtraggio algoritmico dei contenuti (vedi direttiva copyright). Il regolamento si dovrebbe applicare non solo alle grandi aziende, ma anche ai blog personali.

Leggi anche >> Cosa prevede il regolamento europeo contro la diffusione dei contenuti terroristici online e le sue criticità

Oppure come il Digital Service Act, la normativa che si occuperà di regolamentare le piattaforme online e in particolare i contenuti online, prevedendo probabilmente obblighi di diligenza per le piattaforme, una regolamentazione per i contenuti non solo illeciti ma semplicemente “dannosi”, arrivando forse ad includere obblighi di filtraggio preventivo per i contenuti online al fine di prevenire “l'abuso criminale dei loro servizi” (Commissione DG HOME). La proposta della DG HOME al momento prevede addirittura l'obbligo per le piattaforme online di chiudere gli account che diffondono contenuti dannosi (quindi non illegali) come la disinformazione, un’idea che trasformerebbe le aziende del web in arbitri della “verità”.

Leggi anche >> Digital Service Act: l’Europa prepara le nuove regole per le piattaforme online

La Commissione europea, quindi, continua a perseguire la strada della delega alle aziende private di funzioni statali (come sostanzialmente stabilito nella Raccomandazione del 2018), nel particolare settore dell’ordine pubblico. Vedremo se la sentenza del Consiglio Costituzionale francese avrà il potere di modificare le intenzioni delle istituzioni europee.

Iscriviti alla nostra Newsletter


Come revocare il consenso: Puoi revocare il consenso all’invio della newsletter in ogni momento, utilizzando l’apposito link di cancellazione nella email o scrivendo a info@valigiablu.it. Per maggiori informazioni leggi l’informativa privacy su www.valigiablu.it.

Immagine in anteprima via Pixabay.com

Segnala un errore