L’innocenza di Google

Chi decide la libertà di espressione in Rete? Alcune questioni sollevate dal dibattito sul trailer di ‘Innocent Muslims’ e la decisione del colosso di Mountain View di rimuoverlo in Libia ed Egitto.



Il trailer di Innocence of Muslims, usato come pretesto per azioni terroristiche, non ha scatenato solamente proteste costate la vita a decine di persone in tutto il Medio Oriente. La decisione di Google di rimuoverlo – pur se temporaneamente – dal servizio YouTube in Libia e in Egitto a causa delle circostanze straordinarie e anche se non in violazione della sua politica riguardante l’hate speech (rimozione che si aggiunge alla sua censura in India, Indonesia, Pakistan, Bangladesh e Malesia; alla minaccia di censura in Arabia Saudita e Russia; al blocco totale dei servizi di Google in Afghanistan – così che un quarto della popolazione di fede musulmana nel mondo non può vederlo) ha suscitato un considerevole dibattito sul ruolo che aziende private come il colosso di Mountain View hanno finito per ricoprire nel decidere – più o meno autonomamente – quali siano i confini della libertà di espressione in Rete. Gli spunti prodotti da commentatori del calibro di Jillian C. York, Jeff Bercovici e molti altri vanno ben oltre il caso in questione, delineando alcuni dei problemi con cui sempre più le nostre società dovranno misurarsi. Per questo Valigia Blu li ha riassunti in modo schematico per i suoi lettori:

  1. Visto che si è scritto che il video «viene da Internet», è decisamente probabile che la sua origine venga attribuita al mezzo con cui è stato distribuito, piuttosto che agli autori. A questo modo, il video rimarrebbe «un gesto di Internet», con conseguenze molto pericolose.
  2. I giganti (privati) del web hanno piazzato l’asticella più in basso rispetto al Primo Emendamento: «Si può discutere il merito di una decisione simile, ma non si può sostenere in un dibattito serio che non l’abbiano fatto».
  3. Se aziende private hanno il ruolo di arbitri in questioni riguardanti la libertà di espressione, siamo senza rimedi formali nel caso le loro decisioni ci sembrassero ingiuste. Nessun social network ha stabilito una procedura articolata per discuterle, e molto probabilmente nessuna lo farà.
  4. Niente impedisce alle aziende di cambiare politica sulla libertà di espressione senza preavviso, o senza contraddirsi.
  5. Non solo la situazione non è la stessa in luoghi con gradi molto diversi di libertà di espressione: le differenze sono sostanziali già tra Stati Uniti ed Europa. Nei primi il ‘Bill of Rights’ protegge il video dalla rimozione, e consente a YouTube di decidere da sé come affrontare casi di hate speech; le legislazioni di paesi come Francia, Germania e Gran Bretagna permetterebbero al contrario la censura.
  6. Che Google non finisca per essere arbitro unico di casi simili è nell’interesse dei cittadini ma anche dell’azienda. Google dovrebbe fare come Twitter: rimuovere contenuti non perché lo detta il suo giudizio – comunque sia formulato – ma solo a seguito di richieste legali valide e comunicando ogni rimozione nel modo più trasparente possibile. Che poi è come ha fatto fino alla decisione di censurare temporaneamente il video in questione in Egitto e Libia. Altrimenti, il rischio è esporsi a ogni tipo di richiesta di censura, e avere difficoltà a spiegare perché in alcuni casi ha rimosso e in altri no.
  7. In ogni caso, nella decisione di Google c’è da considerare anche l’ingerenza – nemmeno troppo velata – della Casa Bianca, che ha chiesto di «valutare» (review) se il video fosse in linea o meno con i termini di utilizzo di YouTube. «È un po’ censura e un po’ diplomazia in una situazione difficile» (Jennifer Granick, Stanford Law School Center for Internet and Society). Per Eva Galperin (Electronic Frontier Foundation) l’ingerenza è simile a quella del senatore Joe Lieberman per il blocco bancario nei confronti di WikiLeaks, perché non è ragionevole credere che la Casa Bianca abbia pensato che Google non l’avesse già «valutato».
  8. Per le prime 24 ore del blocco in Egitto, Google ha pure sbagliato dicitura nel messaggio che appariva tentando di fruire del video, parlando di una rimozione dovuta a un ordine di legge (legal complaint). Che non c’è mai stato. Un errore, ha specificato Google. Ma indicativo.
  9. «Se la rimozione dovesse essere percepita come una risposta di Google a una minaccia di violenze, potrebbe creare ulteriori problemi. È il concetto del ‘veto del disturbatore’ (heckler’s veto) – l’idea che se si mostrano debolezze nella propria devozione alla libera espressione, allora basta minacciare una rivolta per causare una interruzione del libero pensiero» (Andrew McLaughlin, ex direttore della Public Policy di Google). O anche: il «relativismo geografico» di Google (cioè il variare la censura a seconda della legislazione locale) non dovrebbe consentire che le minacce di folle violente o di governi autocratici siano ricompensate con la censura.
  10. Una rimozione di contenuti per blasfemia è giustificata solamente qualora vi sia un legame «diretto e immediato» tra il contenuto e una minaccia alla sicurezza e all’ordine pubblico, dice l’articolo 19 dell’International Covenant on Civil and Political Rights (ICCPR). Ma quel legame non sembra esserci, e in ogni caso «spetta ai governi, non alle aziende» deciderlo.
  11. Va considerato che il gesto di Google, per quanto senza precedenti e – come quasi tutti gli osservatori riconoscono – pericoloso in termini di conseguenze future, è stato fatto con le migliori intenzioni e solo per cercare di salvare vite umane. «Difficile incolpare chicchessia per aver dato la priorità alle vite umane sui principi astratti, perfino se importanti come la libertà di espressione e la libera circolazione dell’informazione» (Jeff Bercovici, Forbes). Insomma, perfino il più radicale dei difensori di quei principi dovrebbe riconoscere la difficoltà del dilemma di fronte al quale si è trovato Google. Il problema è, che perché il calcolo di Google funzioni, quella scelta avrebbe dovuto tradursi in meno violenze. Il che non è successo. E questo non deve sorprendere: «il più delle volte rimuovere un contenuto a sfondo politico è il modo più sicuro per amplificarne il potenziale» (Bercovici). In altre parole, se vedendo il video ci si può rendere conto della sua totale scempiaggine, limitarsi a immaginarlo può caricare chi se ne senta offeso di aspettative apocalittiche non rispondenti alla realtà.

Da ultimo, impossibile non segnalare alcune domande di straordinaria importanza – che ben riassumono i punti precedentemente sollevati – poste da Bianca Bosker sull’Huffington Post:

  • Chi ha deciso di rimuovere il video e perché? Che tipo di discussione ha avuto Google con i rappresentanti del governo, sul film?
  • Perché non è censura, in luoghi dove il video è legale?
  • La violenza si è attenuata nei Paesi in cui il video è stato rimosso? Diminuirà? E il video «temporaneamente rimosso» sarà ripristinato nei Paesi in cui è legale una volta che la violenza sarà diminuita?
  • Rimuovere il video ricompensa la violenza?
  • Il video sarebbe stato rimosso se fosse stato un articolo?
  • Il video sarebbe stato rimosso se avesse scatenato le violenze di gruppi pro-democrazia?
  • Il video sarebbe stato rimosso se le violenze fossero state negli Stati Uniti?

Domande a cui mancano ancora risposte precise.

———

Fonti:

1-4: http://www.citmedialaw.org/blog/2012/structural-weakness-internet-speech

5: http://www.csmonitor.com/World/Global-News/2012/0912/Libya-Egypt-riots-Can-anti-Islam-speech-be-shut-down

6: http://edition.cnn.com/2012/09/14/opinion/york-libya-youtube/index.html

7: http://www.washingtonpost.com/business/economy/googles-restricting-of-anti-muslim-video-shows-role-of-web-firms-as-free-speech-arbiters/2012/09/14/ec0f8ce0-fe9b-11e1-8adc-499661afe377_story.html e http://techcrunch.com/2012/09/17/why-google-shouldnt-have-censored-the-anti-islamic-video/

8: http://advocacy.globalvoicesonline.org/2012/09/17/did-google-do-the-right-thing e https://www.accessnow.org/blog/when-doing-no-evil-becomes-exceptionally-difficult

9: https://www.accessnow.org/blog/when-doing-no-evil-becomes-exceptionally-difficult e http://www.thenation.com/blog/169952/why-youtube-wrong-censor-anti-islam-video#

10: https://www.accessnow.org/blog/when-doing-no-evil-becomes-exceptionally-difficult

11: http://www.forbes.com/sites/jeffbercovici/2012/09/14/googles-islam-baiting-video-censorship-a-well-meaning-mistake/




Valigia Blu - I contenuti di questo sito sono utilizzabili sotto licenza cc-by-nc-nd