Diritti Digitali Post

Secondo la whistleblower di Facebook il Digital Service Act salverà la democrazia. Ma è davvero così?

19 Novembre 2021 14 min lettura

author:

Secondo la whistleblower di Facebook il Digital Service Act salverà la democrazia. Ma è davvero così?

13 min lettura

La legge sui Servizi Digitali

Mai come negli ultimi tempi il Digital Service Act (DSA), un tempo normativa in formazione quasi misconosciuta, è non solo discussa e menzionata sui giornali, ma ha ricevuto costante pubblicità dalla whistleblower ex dipendente di Facebook, Frances Haugen, la quale, ricevuta al Parlamento europeo, ne ha parlato come fosse la soluzione ai gravi (a suo dire) problemi che infestano il social network Facebook e che minacciano addirittura la democrazia: “Frances Haugen agli eurodeputati: le regole digitali dell'UE possono essere un punto di svolta per il mondo”. A questo punto non possiamo esimerci dal conoscere meglio il DSA.

Innanzitutto occorre partire dalla considerazione che la proposta per la legge sui servizi digitali è necessaria soprattutto perché gli sforzi individuali dei singoli Stati finiscono per interferire con il Mercato Unico europeo (Digital Single Market), in quanto le piattaforme devono ottemperare a normative differenti e spesso in contraddizione tra loro. Sotto tale profilo possiamo ricordare la NetzDG tedesca o la legge Avia (in parte dichiarata incostituzionale), ma anche le tante proposte di legge presentate in Italia che hanno spesso messo in discussione anche pilastri della libertà di informazione e di critica quale l’anonimato sul web (in realtà internet non è strutturato in modo da consentire un reale anonimato, infatti si parla di pseudonomia) senza il quale i dissidenti, i whistleblower o le categorie emarginate o discriminate (es. LGBTQ) sarebbero esposte a ritorsioni. Inoltre determinati fenomeni in espansione, come il blocco degli account non trasparente, l’hate speech online, la disinformazione, dimostrano che una regolamentazione delle piattaforme è ormai indifferibile. Il rischio concreto è che le “brave persone” si ritirino in spazi chiusi (podcast, newsletter) lasciando lo spazio del discorso pubblico alla mercé di chi agisce con violenza “psicologica”, e le conseguenze sarebbero la creazione di “filter bubble”, “echo chambers” e scarsità di attenzione, finendo per alimentare i problemi che si additano in genere all'ambiente digitale.

Leggi anche >> Trump, Twitter e la moderazione dei contenuti online

Ecco quindi che il DSA mira a regolamentare le piattaforme online occupandosi dell’impatto che hanno sui diritti dei cittadini e sulla stessa società nel suo complesso. Ne abbiamo già parlato evidenziando come attorno a questa nuova disciplina si è accesso un aspro confronto tra le aziende del web, le aziende dell’intrattenimento e i Big dell’editoria, creando un vero e proprio campo di battaglia nel quale, purtroppo, appare spesso assente l’interesse per i diritti dei cittadini. Del resto non dobbiamo dimenticare che anche il DSA alla fine rientra nell’ampio pacchetto che serve il Digital Single Market, il cui scopo finale è di alimentare l’economia digitale. A leggere gli atti del DSA, infatti, sembra quasi che i diritti dei cittadini siano un mero accidente all’interno di un quadro di contemperamento tra interessi economici dei tre settori principali che operano nell’ecosistema digitale. Insomma, mentre Haugen accusa Facebook di mettere i profitti prima dei diritti, l’economia prima di tutto sembra proprio il mantra del DSA.

Leggi anche >> L’Europa presenta le nuove regole per il digitale

La proposta equilibrata della Commissione europea

In realtà l’avvio della discussione sul DSA è stato sorprendentemente positivo. Non dobbiamo dimenticare le proposte precedenti della Commissione europea, come la direttiva copyright che legittima e suggerisce “caldamente” l’utilizzo di filtri di caricamento da parte delle piattaforme online. Oppure come la normativa sul terrorismo che impone dei termini temporali di blocco dei contenuti online irrealisticamente brevi. Col Commissario per il digitale Breton, invece, la proposta di legge sui servizi digitali è partita con un cambio di direzione.

Evidentemente le forti proteste dei cittadini contro i filtri di upload che possono portare a rimozioni ingiustificate in base ad accordi tra le grandi aziende dell’intrattenimento, dell’editoria e i Big Tech, con scarsissima considerazione dei diritti dei cittadini, hanno ottenuto un qualche effetto, sia pure solo momentaneo. Nella proposta della Commissione i cittadini non erano più visti come potenziali criminali oppure, in alternativa, come consumatori senza particolari diritti (con ciò incorporando nell’ecosistema le strutture di incentivazione dei mercati), ma per la prima volta come soggetti con diritti. Il DSA nella sua iniziale proposta non si limitava solo a regolamentare le piattaforme online ma il suo scopo era anche garantire che queste permettano ai cittadini di esercitare online i diritti fondamentali: il diritto alla libertà di informazione, il diritto alla libertà di espressione e la libertà dalle discriminazioni, e in particolare il diritto di partecipare responsabilmente alla discussione nello spazio pubblico online.

In tale ottica il DSA nella sua proposta originale mantiene saldi i principi che hanno consentito l’innovazione tecnologica, e cioè l’esenzione da responsabilità dei contenuti immessi dagli utenti sui server delle piattaforme fintanto queste non siano consapevoli dell’illiceità di tali contenuti (così come previsto dalla direttiva eCommerce). In tal senso le piattaforme non hanno obblighi di monitoraggio né di utilizzo di filtri di upload. Anche se poi le aziende più grandi ne fanno comunque uso perché sarebbe impossibile controllare tutti i commenti, i video e le immagini caricate sui loro server solo tramite verifiche umane. Ma, essendo i diritti umani a tutela dei cittadini rispetto all’azione dello Stato, una rimozione da parte di un’azienda privata non necessariamente configura una restrizione della libertà di espressione (ad esempio, potrebbe essere solo la conseguenza di un Off Topic).

Poiché, però, ormai lo spazio pubblico è sempre più coincidente con l'ecosistema digitale, il DSA si è posto anche il problema di eventuali abusi, come ad esempio la soppressione di account per motivi politici. Quindi introduce norme che impongono trasparenza alle aziende, le quali devono rendere pubbliche le regole in base alle quali moderano i contenuti e le procedure di applicazione di tali regole. Trasparenza significa anche che le piattaforme dovranno pubblicare i dati delle rimozioni in un database pubblico (alcune piattaforme già lo fanno tramite il database Lumen), in modo da consentire, appunto, le verifiche delle procedure e dell’applicazione delle regole, così facendo emergere casi di eventuali abusi o discriminazioni. Inoltre il DSA impone che nell'applicare tali regole le aziende debbano tenere conto anche esse dei diritti fondamentali dei cittadini. Trasparenza è anche l’obbligo per le piattaforme di informare gli utenti del perché vengono loro mostrati determinati annunci pubblicitari (alcune piattaforme già lo fanno) e verificare l’identità di tutti i rivenditori.

La proposta peggiorativa del Parlamento

A fronte di un testo della Commissione sorprendentemente equilibrato e favorevole ai diritti fondamentali del cittadino, il testo del Parlamento europeo appare invece aver ribaltato completamente la prospettiva.

La proposta del Parlamento prevede il blocco dei contenuti illegali in termini brevi (24 ore) se il contenuto rappresenta una minaccia per l’ordine pubblico, e questo senza una chiara definizione di “minaccia per l’ordine pubblico” che quindi potrebbe portare facilmente ad abusi (es. rimozione di contenuti in dissenso con le politiche del governo in carica). Le piattaforme non potranno fare altro che rimuovere i contenuti dubbi per non doverne rispondere (responsabilità diretta in questo caso).

Inoltre si prevede una norma a favore dell’industria dell’intrattenimento che impone il blocco entro 30 minuti di eventi sportivi o di intrattenimento (tali termini ristretti possono essere rispettati solo utilizzando filtri di upload). Infine la proposta prevede il divieto di rimozione dei contenuti delle “pubblicazione di stampa” e dei “servizi di media audiovisivi” anche nei casi in cui questi contengano disinformazione (fake news) o violino i termini di servizio della piattaforma. Tale ultima proposta sembra inserirsi nel dibattito scatenato dalla direttiva copyright, anche così come implementata in Italia, che prevede che le piattaforme debbano pagare per i contenuti dell’editoria, così impedendo che le piattaforme possano rimuoverli per non doverli pagare. Siamo ormai alla commedia dell’assurdo, che alimenterà in maniera esponenziale la disinformazione online e per la quale continueranno a dare la colpa alle piattaforme, obbligate a pubblicarla. Di contro l’editoria non avrà più alcun incentivo a migliorare i propri prodotti, perché avrà un flusso di denaro continuo da parte della piattaforme indipendentemente dal contenuto (anzi, sappiamo bene che contenuti più polarizzanti si condividono di più). Proprio per tali motivi giornalisti, fact-checkers e ricercatori sulla disinformazione hanno scritto alla Commissione IMCO per chiedere di eliminare l’esenzione per i media.

La proposta per come è strutturata è un fortissimo incentivo a rimuovere tutti i contenuti segnalati o dubbi senza ulteriori riscontri o verifiche, perché in caso contrario la piattaforma si esporrebbe a cause milionarie verso le grandi aziende, mentre rimuovendo contenuti immessi dai cittadini un’eventuale causa potrebbe costare poco o niente alla piattaforma. Inoltre la piattaforma sarebbe responsabile anche per le violazioni sulla trasparenza, e quindi perderebbe l’esenzione da responsabilità anche solo per violazioni formali. Infine la piattaforma beneficerebbe dell’esenzione da responsabilità solo se si comporta un maniera neutrale, laddove anche la presentazione dei contenuti sarebbe da considerarsi una violazione della neutralità. In sostanza solo gli hosting puri potrebbero godere dell’esenzione mentre tutte le piattaforme che utilizzano algoritmi di raccomandazione (es. Google, Facebook, Twitter, Apple, Wikipedia, GitHub e tanti altri) diverrebbero direttamente responsabili dei contenuti degli utenti. Con tale proposta il Parlamento europeo abbandona il sistema di responsabilità limitata per le piattaforme del web completando il percorso di responsabilità per così dire “editoriale” delle piattaforme, che avrà conseguenze devastanti sull’intero ecosistema digitale.

Tale responsabilità diretta delle piattaforme implicherà che le piattaforme rimuoveranno tutti i contenuti dubbi, in particolar modo dei cittadini che non hanno peso sufficiente per creare danni alle aziende del web, rimuoveranno tutti i contenuti segnalati dalle aziende dell’intrattenimento per non dover subire cause milionarie, e non potranno rimuovere i contenuti dei giornali anche se contengono diffamazione. Ciò significa che il controllo e la regolamentazione del flusso delle comunicazioni nell’ambiente digitale viene di fatto delegato ad accordi tra l’industria dell’intrattenimento, la grande editoria e i Big Tech, che ovviamente si preoccuperanno di massimizzare i loro profitti, senza alcun interesse a tutelare i diritti fondamentali dei cittadini che, ancora una volta, rimarranno schiacciati da questa stretta sui contenuti. In tale situazione paradossalmente il potere delle grandi aziende del web sarà addirittura maggiore, prima di tutto perché tali normative implicano l’utilizzo massivo di filtri di upload, che costano non poco e certamente un'azienda nascente o di piccole dimensioni non potrebbe permetterselo, e ciò costituirà una fenomenale barriera all’ingresso del marcato, consolidando così la posizione dominante delle aziende del web. Ma anche perché di fatto queste aziende diventeranno i veri gatekeeper dell’informazione, posizione che le porterà a accordi privilegiati coi governi per gestire eventuali forme di dissenso online. Il rischio è di una stretta pericolosa sulla libertà di informazione fino ad una vera e propria deriva autoritaria.

Leggi anche >> La pressione dei governi spinge le piattaforme verso più censura e meno privacy per gli utenti

Il dilemma del moderatore

In questo quadro complesso il problema principale del DSA, che sostanzialmente interviene ad aggiornare la Direttiva eCommerce, sta nel contemperare le esenzioni da responsabilità delle piattaforme (appunto dalla Direttiva eCommerce), che sono la base indispensabile senza la quale non ci sarebbe stato sviluppo dell’ambiente digitale, e le forti pressioni che vengono dalla società per una migliore moderazione dei contenuti online.

Per godere delle immunità la condizione preliminare sta nella mancanza di consapevolezza dell’illegalità. Ma le forti pressioni della società incoraggiano le piattaforme a indagini proattive sui contenuti che possono innescare forme di consapevolezza e quindi elidere le immunità previste. Nonostante numerosi sforzi dei giudici nazionali e della Corte europea, infatti, non è sempre facile stabilire in quali casi una piattaforma si debba ritenere “passiva” al punto da poter godere delle immunità previste, nel momento in cui avvia un controllo pervasivo sui contenuti immessi sui suoi server. Molti interventi di moderazione dei contenuti, inoltre, pretendono quanto meno una verifica da parte di esseri umani, essendo pacifico che i sistemi algoritmici non sono in grado di comprendere il contesto, per cui finirebbero per errare nelle decisioni di rimozione dei contenuti. E l’intervento umano, a maggior ragione, potrebbe innescare una consapevolezza dell’illiceità.

Per questo motivo (oltre che per motivazioni economiche) le piattaforme preferiscono agire tramite filtri algoritmici che con moderatori umani, anche perché un intervento volontario, automatizzato, è non solo consentito ma addirittura ampiamente suggerito da numerosi documenti delle istituzioni europee (tra cui proprio la Direttiva Copyright). In una situazione del genere le piattaforme finiscono per rispondere ad imperativi in contrasto tra loro (rimanere neutrali ma nel contempo moderare meglio i contenuti) che alimentano i problemi piuttosto che risolverli.

Il DSA inserisce una notevole confusione proprio nel momento in cui incentiva o addirittura impone alle aziende una analisi proattiva dei contenuti immessi sui server dagli utenti, che facilmente innescherebbe la consapevolezza che elide l’esenzione da responsabilità delle piattaforme.

Il DSA cerca di superare il classico “dilemma del moderatore”: se ricerchi un contenuto illecito finisci per essere consapevole dell’illiceità e quindi ne diventi responsabile. Il DSA dice che in tale ipotesi comunque non perdi l’esenzione da responsabilità, introducendo una sorta di clausola del Buon Samaritano all’americana (Sezione 230). Ma rimangono margini di incertezza, l’esenzione permane se il contenuto illegale viene scoperto esclusivamente tramite un’indagine, ma se viene scoperto in altro modo l’azienda ne avrebbe “consapevolezza” e quindi ne sarebbe responsabile. Il monitoraggio proattivo in che modo si pone in questo quadro? Il punto è che l’incertezza porta le aziende a cercare di evitare responsabilità, e con il testo del Parlamento l’incentivo è verso una moderazione spinta e quindi una rimozione di tutti i contenuti dubbi. L’idea è di incoraggiare le aziende a moderare per ripulire le “brutte cose” dal web, ma se si impone una responsabilità per la consapevolezza di queste “brutte cose” tutto quello che ottieni è una rimozione senza ricerche, senza verifiche, senza controllare se i diritti di terzi (i cittadini) sono rispettati o calpestati. In breve, avremo una massiccia rimozione anche dei contenuti perfettamente legali per questioni di pura efficienza economica. Come tutto questo si possa sposare con una “maggiore tutela dei diritti fondamentali dei cittadini” è un mistero.

Conclusioni

A differenza dell’art. 17 della Direttiva Copyright, che è limitata alle violazioni del diritto d’autore, il DSA disciplinerà la responsabilità per tutte le attività degli utenti su tutte le piattaforme, fino ai forum non commerciali mantenuti per puro hobby. Con il Digital Services Act l'Europa ha l'opportunità di stabilire degli standard globali, così come ha già fatto col Regolamento in materia di protezione dei dati personali, non solo in materia di discorso online, ma anche con riferimento alle scelte dei consumatori, e ai principi fondamentali dell’ecosistema online. Ma occorre che tali standard siano davvero rispettosi dei diritti e delle libertà dei cittadini. La regolamentazione in materia di comunicazione digitale può essere la base di partenza per dare a tutti l'occasione di avere una voce nel discorso pubblico, ma se mal gestita può determinare una minaccia per i diritti fondamentali e le nostre democrazie.

Purtroppo l’impressione è che l’Unione europea, dopo una prima fase adesso sembra si sia concentrata sugli interessi economici, in particolare mirando a contemperare le esigenze economiche delle grandi aziende (intrattenimento, editoria, Big Tech). Solo quando tali interessi economici non sono minacciati si guarda alla tutela dei diritti dei cittadini (libertà di espressione, protezione dei dati personali, ecc...) finendo questi per essere un mero accidente di percorso.
Così anche per il digitale si sta realizzando, come è avvenuto per la televisione, il grave errore di lasciare il campo alla regolamentazione dei privati, e l'incentivo economico diventa la base per modellare l’ecosistema digitale, con tutte le conseguenze del caso (la disinformazione, ad esempio, dipende anche dalla diffusione di contenuti a cui legare la pubblicità). Alla fine il DSA delega alle aziende la regolamentazione dei contenuti online.

In questa situazione è piuttosto difficile che si crei un meccanismo virtuoso che porti ad un ambiente digitale più salubre. Il massimo che si potrà ottenere è una rimozione massiccia di tutti i contenuti questionabili, in particolar modo se provengono dai normali cittadini che non hanno il “peso” per danneggiare economicamente le grandi aziende. Laddove invece un soggetto (es. un politico, ma anche in genere un influencer che ha la capacità di sollevare i suoi follower contro la piattaforma) ha tale “peso” appare evidente che si realizzerà un doppio binario con una maggiore tollerabilità rispetto ai suoi contenuti e soprattutto una decisamente maggiore possibilità che i suoi contenuti eventualmente rimossi siano ripristinati.

Con una moderazione dei contenuti improntata a tali principi è evidente che gli errori si moltiplicheranno in proporzione diretta alla quantità di contenuti immessi dagli utenti. Un sistema del genere potrebbe migliorare solo introducendo dei correttivi. Da un lato una reale Protezione del Buon Samaritano, laddove la “buona fede” della piattaforma impedisce conseguenze (a parte il ripristino del contenuto) verso la piattaforma stessa con ciò eliminando (o riducendo quanto meno) l’incentivo a rimuovere tutti i contenuti dubbi per non doverne rispondere. Ma anche la responsabilità del segnalante. Il terzo che segnala un contenuto dovrebbe rispondere dei danni (qualora dimostrati ovviamente) in tutti i casi in cui una richiesta di revisione porti ad accertare che il contenuto non era da rimuovere. Tale correttivo fungerebbe da disincentivo verso le segnalazioni per mere ritorsioni, per alimentare compagne di odio verso persone o categorie di persone ma anche nei confronti dell’industria dell’intrattenimento che notoriamente segnala tutti i contenuti in competizione con i propri diritti anche se non illeciti (in quanto basati su eccezioni al diritto d’autore). Purtroppo a tale disincentivo si oppone strenuamente l’industria dell'intrattenimento che spesso utilizza sistemi algoritmici per scovare contenuti in violazione del copyright, i quali sistemi (come tutti i sistemi algoritmici) portano a numerosissimi errori non essendo, appunto, in grado di valutare il contesto (e quindi di comprendere se un contenuto è realmente in violazione del copyright), limitandosi semplicemente a verificare se un contenuto è uguale (o simile) a quello nel database dell’azienda. È noto, ad esempio, che molti contenuti pacificamente nel pubblico dominio (e quindi utilizzabili da chiunque) sono stati segnalati (e spesso rimossi) solo perché la stessa opera era presente nel database dei contenuti di un’azienda come esecuzione soggetta a copyright (es. la quinta sinfonia di Beethoven).

Ulteriormente il DSA dovrebbe farsi carico di regolamentazioni stringenti sulla pubblicità targettizzata che sfrutta ampiamente i dati dei cittadini, casomai addirittura vietandola, e in tal senso si moltiplicano le iniziative che evidenziano come tale tipo di pubblicità sia alla fine deleteria per gli editori che vedono costantemente ridursi i ricavi a favore dei Big Tech. In sostituzione la pubblicità contestuale è una realtà già presente e utilizzata con successo. In tal modo si limiterebbe il peso dei Big Tech. Infine, il DSA dovrebbe spingere su obblighi di interoperabilità che, consentendo la comunicazione tra servizi di piattaforme differenti, limiterebbe ulteriormente il peso dei Big Tech, garantendo maggiore diversificazione e libertà di scelta tra servizi, così alimentando la concorrenza. Se l’idea è di sottrarre potere alle aziende del web questa è la strada giusta.

In estrema sintesi possiamo dire che il DSA non è certo la panacea di tutti i mali dell’ecosistema digitale (figuriamoci della democrazia che ormai soffre di problemi sociali più che digitali), e Frances Haugen, la whistleblower ed ex dipendente di Facebook, con le sue parole, dimostra di non avere una reale conoscenza della normativa, la quale se approvata così come è ora non solo non risolverà i problemi dell’ecosistema digitale, ma finirà addirittura per concedere maggiori poteri alle grandi aziende (compreso i Big Tech) a scapito dei diritti dei cittadini.

Immagine in anteprima via Pixabay.com

Iscriviti alla nostra Newsletter


Come revocare il consenso: Puoi revocare il consenso all’invio della newsletter in ogni momento, utilizzando l’apposito link di cancellazione nella email o scrivendo a info@valigiablu.it. Per maggiori informazioni leggi l’informativa privacy su www.valigiablu.it.
Segnala un errore