Diritti Digitali Post

Facebook e il caso di diffamazione contro la leader austriaca dei Verdi

18 Ottobre 2019 10 min lettura

author:

Facebook e il caso di diffamazione contro la leader austriaca dei Verdi

10 min lettura

La sentenza della Corte di giustizia europea che ha concluso il caso C-18/18 ha fatto molto discutere. Anche se è del 3 ottobre, per cui moltissimi ne hanno già parlato, conviene ritornarci, anche per correggere alcune imprecisioni che sono state diffuse da alcuni siti di informazione.

Il caso

Il caso è semplice. Il 3 aprile 2016 viene pubblicato sulla rivista austriaca online oe24.at un articolo intitolato: “I Verdi: a favore del mantenimento di un reddito minimo per i rifugiati”. Un utente di Facebook condivide l’articolo generando un’anteprima dello stesso con una fotografia del politico a capo del partito dei Verdi, e un breve riassunto dell'articolo. L’utente aggiunge anche un commento con le seguenti frasi: “Brutta traditrice del popolo”, “imbecille corrotta”, membro di un “partito di fascisti”.

Indubbiamente si tratta di termini volgari, ma che in un contesto politico risulterebbero non illeciti in molti Stati (ad esempio negli Usa).

Il 7 luglio dello stesso anno il politico chiede a Facebook Ireland di rimuovere il commento in questione. Facebook non ottempera. Il politico, quindi, propone istanza cautelare dinanzi al tribunale del commercio di Vienna, il quale il 7 dicembre ordina a Facebook di cessare immediatamente, e fino alla chiusura del procedimento di merito, la diffusione di fotografie della ricorrente qualora il messaggio di accompagnamento contenesse le stesse affermazioni o affermazioni equivalenti a quelle contestate.

Il tribunale ritiene, infatti, che le frasi siano diffamatorie lasciando intendere che il politico abbia tenuto un comportamento penalmente rilevante senza fornire alcuna prova al riguardo.

Facebook disabilita l’accesso al contenuto nel territorio austriaco.

Il tribunale di Vienna, in sede di appello, conferma l’ordinanza per quanto riguarda le affermazioni identiche, precisando, però, che la diffusione di affermazioni equivalenti doveva cessare unicamente con riferimento a quelle portate a conoscenza di Facebook da parte del ricorrente o di terzi.

Entrambe le parti ricorrono alla Corte Suprema austriaca, la quale, con riferimento alla richiesta di rimozione di affermazioni identiche o equivalenti di cui Facebook non sia stato portato a conoscenza, sostiene che tale obbligo deve essere considerato proporzionato qualora il prestatore di servizi hosting sia già venuto a conoscenza di almeno una violazione dei diritti del ricorrente causata dal contributo di un utente. Tuttavia, implicando problematiche di interpretazione di norme comunitarie, la Corte austriaca invia gli atti alla Corte di giustizia europea. In particolare si chiede ad essa di precisare se sia ammissibile, in base alle norme europee (art. 15 direttiva 2000/31), la rimozione non solo delle informazioni illecite ma anche di altre informazioni identiche. E se tale rimozione possa avvenire a livello mondiale.

La decisione della Corte europea

Data la complessità della materia e le possibili implicazioni per l’intero ambiente digitale, il provvedimento della Corte appare fin troppo scarno, e probabilmente è proprio tale aspetto che ha determinato alcune imprecisioni nei commenti alla sentenza.

In breve la Corte stabilisce che Facebook è responsabile in quanto non ha rimosso il contenuto illecito a seguito della comunicazione del politico (che configura consapevolezza della presenza di contenuti illeciti), in violazione dell’art. 14 della direttiva 2000/31. Il politico, infatti, ha dovuto ricorrere ad un giudice per la tutela dei propri diritti. L’articolo in questione, infatti, prevede l’obbligo di rimuovere immediatamente un contenuto nel momento in cui il prestatore di hosting viene a conoscenza dell’illiceità del contenuto medesimo.

La Corte chiarisce ulteriormente che l’articolo 15 della direttiva vieta l’imposizione di obblighi generali di monitoraggio. Però la norma non vieta l’imposizione di obblighi di controllo di contenuti specifici. In tal senso si può imporre al prestatore non solo la rimozione del contenuto incriminato, ma anche la rimozione di contenuti identici a quello dichiarato illecito. In questo caso, infatti, non si pone a carico del prestatore di servizi un obbligo di ricercare attivamente fatti o circostanze che indichino la presenza di attività illecite (obbligo vietato dall’art. 15, par. 1). L’inibitoria, infatti, deve poter coprire anche contenuti formulati in maniera leggermente differente ma che veicolino sostanzialmente lo stesso messaggio diffamatorio. In sostanza, se anche le parole sono differenti, oppure lo è la loro combinazione, ma il messaggio è identico, l'inibitoria si estende a tali messaggi, altrimenti sarebbe facile eludere l’ordine del magistrato utilizzando parole diverse ma di identico senso. Diversamente si costringerebbe il ricorrente a dover sorvegliare la piattaforma e reiterare le richieste inibitorie più e più volte.

Occorre, però, contemperare anche i diritti del prestatore, al quale non è possibile imporre degli obblighi eccessivi. Per cui la Corte stabilisce che le informazioni equivalenti da rimuovere devono contenere elementi specifici debitamente individuati dall’autore dell’ingiunzione, quali il nome della persona interessata, le circostanze in cui è stata accertata la violazione, nonché un contenuto equivalente a quello dichiarato illecito. In breve, l’inibitoria non deve essere tale da porre il prestatore nelle condizioni di dover effettuare una valutazione autonoma del contenuto “equivalente” da rimuovere. Quindi il monitoraggio rimane limitato ai contenuti specificati nell’ingiunzione.

Infine, con riferimento alla eventuale possibilità di estendere le rimozioni a livello mondiale, la Corte si limita a precisare che la normativa europea non prevede alcuna limitazione territoriale alla portata del provvedimenti che gli Stati membri hanno diritto di adottare in base alle loro norme interne. Cioè la direttiva 2000/31 non vieta ingiunzioni globali. Ma spetta ai giudici degli Stati membri garantire che i provvedimenti eventualmente adottati tengano debitamente conto delle norme internazionali e quindi del corretto bilanciamento con i diritti fondamentali, in primis la libertà di espressione.

Considerazioni

La normativa di riferimento è la cosiddetta "direttiva e-commerce" che prevede, all’art. 14, una immunità per i prestatori di servizi di hosting (come nel nostro caso è Facebook, come valutato dal giudice austriaco, valutazione sulla quale non entra la Corte europea) con riferimento ai contenuti immessi dagli utenti sui suoi server. Tale immunità permane fin quando l’hosting assume un comportamento automatico e passivo rispetto ai dati che ospita, cioè un comportamento che non implica in alcun modo la conoscenza dei dati memorizzati (altrimenti ne assumerebbe la responsabilità).

La piattaforma perde tale immunità anche nel caso in cui viene a conoscenza dell’illiceità di contenuti presenti sui suoi server e non agisce immediatamente per rimuoverli (cosa che è accaduta nel caso specifico). In relazione alla consapevolezza dell’illiceità si è avuta una evoluzione giurisprudenziale. Inizialmente, ad esempio i giudici italiani, si riteneva necessaria una notification qualificata (es. da parte di un’autorità), per cui non era sufficiente una comunicazione “di parte”, cioè dello stesso soggetto che si riteneva leso. Oggi si ritiene sufficiente una comunicazione anche dello stesso soggetto che si ritiene leso dal contenuto. Ovviamente in sede giudiziaria è possibile, eventualmente, contestare l’illiceità del contenuto, ma non è questione che qui ci interessa. Nel caso specifico, infatti, alla fine un giudice ha stabilito l’illiceità delle informazioni ospitate.

L’articolo 15 della direttiva vieta l’imposizione di obblighi di sorveglianza generale, cioè uno Stato membro non può imporre al provider di controllare tutti i contenuti immessi suoi suoi server. Anche perché se il provider monitorasse tutti i contenuti rischierebbe di perdere l’immunità di cui all’art. 14, come sostenuto dall’avvocato generale della Corte. Occorre precisare che il monitoraggio vietato è quello che porta alla conoscenza dei dati memorizzati, per cui generalmente un monitoraggio automatizzato (ad esempio per verificare la presenza di contenuti dannosi) non è in contrasto con le norme europee. Detto diversamente, un monitoraggio realizzato tramite software, quindi automatizzato, si può ritenere conforme alle norme europee, un monitoraggio effettuato da personale umano probabilmente non lo sarebbe, appunto perché potrebbe implicare la conoscenza dei contenuti immessi. In tal caso il ruolo dell’intermediario non sarebbe più neutro.

Il monitoraggio, invece, è possibile in casi specifici. Del resto le norme prevedono che un provider può essere costretto a porre fine a una violazione e a impedire ulteriori danni agli interessi in causa (art. 18 direttiva 2000/31). Di conseguenza un ordine di rimozione con effetti anche su contenuti futuri (non ancora immessi sui server) è del tutto ammissibile in base alle norme europee. Questo purché l’ordine individui i contenuti specifici da monitorare, in maniera tale che non residui alcuna autonomia da parte della piattaforma nella valutazione dei contenuti. Chiaramente l’ordine deve avere ad oggetto violazioni della stessa natura di quella contestata.

Nel caso specifico il giudice di secondo grado si riferiva a pubblicazioni di foto della ricorrente accompagnate da testo identico o equivalente (messaggio dello stesso senso). In tal modo il contenuto specifico da monitorare è individuato in maniera piuttosto precisa, in modo tale da non dover implicare una valutazione del contenuto da parte del provider. Secondo la Corte è un tipo di controllo attuabile con strumenti automatizzati da parte della piattaforma.

Conviene anche ricordare che la giurisprudenza si è formata principalmente in relazione alle violazioni al copyright, per le quali raramente si hanno contenuti che differiscono sensibilmente dall’originale. In materia di diffamazione, invece, è piuttosto facile che le reiterazioni della violazioni si realizzino con contenuti (parole) differenti. Ovviamente è fondamentale, per un corretto bilanciamento dei diritti, che l’ordinanza del tribunale individui in maniera specifica i contenuti “equivalenti” da rimuovere.

La Corte, infine, chiarisce che il tribunale che emana l’ingiunzione deve ovviamente ponderare i diritti fondamentali coinvolti (compreso i diritti economici del prestatore) e tenere conto del principio di proporzionalità.

Per quanto riguarda la questione della portata territoriale dell’ingiunzione, molti hanno paragonato la conclusione di questo procedimento con quanto asserito nella causa C-507/17 (sul diritto all’oblio). Si tratta di situazioni differenti. Il diritto all’oblio riguarda contenuti del tutto leciti il cui interesse pubblico scema grandemente col passare del tempo, fino al momento in cui i diritti personalissimi sopravanzano tale interesse. La diffamazione, invece, riguarda contenuti illeciti ab origine.

La Corte non ha aperto la strada ai takedown globali, ma si è limitata a ricordare che le norme europee non si occupano di tale aspetto, non essendoci nemmeno un’armonizzazione (a differenza delle norme in materia di protezione dei dati personali) in tema di pregiudizio alla vita privata e ai diritti della personalità, inclusa la diffamazione. In tal senso la Corte si è limitata a dire che la direttiva 2000/31 non osta alle ingiunzioni globali se eventualmente emesse in base alla normativa interna di uno Stato membro. Questo non vuol dire che abbia autorizzato le ingiunzioni globali (così il New York Times), anzi, al momento non si rinviene una base giuridica europea in tal senso. Vuol dire semplicemente che un giudice di uno Stato membro potrebbe emanare ingiunzioni globali se le norme dello Stato gliela consentono (gli obblighi di rimozione verso i provider rientra nell’ambito di applicazione del diritto nazionale), e che al momento la Corte europea nulla potrebbe dire in merito (mancando le norme di riferimento). Che è cosa completamente differente dal dire che la Corte avrebbe autorizzato ingiunzioni per tutto il mondo.

Ovviamente la Corte ci tiene a precisare che se un tribunale di uno Stato membro emanasse un’ingiunzione di questo tipo, sulla base delle norme interne, dovrebbe comunque tenere presente le norme internazionali, compreso trattati e dichiarazioni, a tutela dei diritti fondamentali e in particolare della libertà di espressione. Il punto essenziale è che un’ingiunzione del genere presuppone, perché sia applicata in un altro Stato, che tale Stato ritenga anch’esso la diffamazione un reato. In realtà le norme in materia differiscono da Stato a Stato. Del resto nel procedimento i governi lettone, portoghese e finlandese si sono detti contrari a ingiunzioni applicabili al di fuori dello Stato che emette l’ordine.

C’è da aggiungere che la ricorrente agisce sulla base del diritto interno (le norme austriache), e non in base alle norme dell’Unione (anche se il giudice del rinvio richiama la "direttiva e-commerce").

In sintesi, invocando il diritto dell’Unione al momento non sarebbe possibile ottenere un’ingiunzione mondiale, laddove tale ingiunzione potrebbe invece eventualmente essere ottenuta invocando le norme interne dello Stato (la decisione non sarebbe contestabile da parte della Corte europea), sempre ché il giudice tenga conto del diritto internazionale pubblico e privato (non armonizzato a livello UE). Considerato le differenze normative tra i vari Stati, anche extra UE, probabilmente un ordine globale finirebbe per ledere diritti fondamentali e, quindi, eccedendo la protezione della persona lesa, in violazione del principio di proporzionalità (vedi questo questo thread su Twitter di Graham Smith), non potrebbe che essere emanato con limitazione allo Stato del ricorrente (blocco geografico).

A questo si può aggiungere che in base al solo diritto dell’Unione, non essendo armonizzato in materia di diffamazione e tutela dei diritti personali, non sarebbe possibile ottenere un ordine di rimozione per l’intero territorio dell’Unione, ma solo nello Stato di ricorso.

Problemi

Il provvedimento della Corte non entra nel merito di alcune questioni che sono rilevanti per una corretta attuazione delle norme europee. La pronuncia appare presupporre alcuni elementi che sarebbe stato meglio esplorare più approfonditamente per evitare futuri problemi interpretativi.

Considerata la quantità di contenuti immessi su queste piattaforma digitali, e considerato anche che un controllo umano potrebbe portare alla conoscenza delle informazioni immesse (e quindi alla responsabilità per i contenuti) è pacifico che il controllo debba essere effettuato solo tramite sistemi di filtraggio automatizzato. La Corte non sembra, però, preoccuparsi delle eventuali ricadute che l’uso di tali tecnologie potrebbero aver sui diritti fondamentali dei cittadini, considerato che anche i migliori sistemi di filtraggio portano ad errori.

Inoltre un sistema di filtraggio non capisce il contesto (es. Facebook rimuove la foto della “Napalm Girl”), per cui contenuti identici o equivalenti utilizzati solo come base per un articolo di approfondimento giuridico, ad esempio, rischierebbero per essere rimossi. L’uso dei sistemi di filtraggio presuppone che sia il contenuto illecito, laddove in realtà molto spesso è l’utilizzo che si fa del contenuto (es. satira, parodia) a determinarne l’illiceità (qui un esempio). Solo un essere umano potrebbe distinguere, ma la Corte sembra sposare il parere dell’avvocato generale in base al quale un controllo umano potrebbe portare a perdere l’immunità per i contenuti immessi dagli utenti.

L’impressione è che la Corte presupponga un’efficacia dei sistemi automatizzati di filtraggio dei contenuti che ancora non risulta provata. Se la Corte non ha aperto la strada ai takedown globali, però con questa sentenza ha consolidato l’utilizzo di sistemi di filtraggio automatizzati per la gestione dei contenuti online. Con tutti i loro limiti (vedi Mixed Messages? The Limits of Automated Social Media Content Analysis). Infatti la Corte sposta l’attenzione dalla dichiarazione in un contesto specifico al messaggio diffamatorio costituito da un insieme di parole. Il rischio è che nell'ordinanza inibitoria, per una maggiore tutela del ricorrente, si finisca per ampliare eccessivamente le parole da dare in pasto all’algoritmo di filtraggio e che questo rimuova anche ciò che non è illecito.

Foto di Simon Steinberger da Pixabay

Iscriviti alla nostra Newsletter

  Consenso all’invio della newsletter: Dai il tuo consenso affinché Valigia Blu possa usare le informazioni che fornisci allo scopo di inviarti la newsletter settimanale e una comunicazione annuale relativa al nostro crowdfunding.
Come revocare il consenso: Puoi revocare il consenso all’invio della newsletter in ogni momento, utilizzando l’apposito link di cancellazione nella email o scrivendo a info@valigiablu.it. Per maggiori informazioni leggi l’informativa privacy su www.valigiablu.it.
Segnala un errore