Diritti Digitali Media Literacy Post

Facebook, la censura e i nostri diritti

12 Settembre 2016 9 min lettura

author:

Facebook, la censura e i nostri diritti

Iscriviti alla nostra Newsletter

9 min lettura

La vicenda della foto simbolo della guerra in Vietnam, censurata in un primo momento da Facebook e poi ripristinata dallo stesso social network, mostra i problemi che dovremo affrontare nel pieno dell’era digitale.

Napalm Girl

Tom Egeland pubblica sul giornale norvegese Aftenposten e quindi su Facebook una serie di immagini che hanno cambiato la storia, e tra questa la famosissima immagine della napalm girl. L’immagine, scattata nel 1972 durante la guerra del Vietnam, ritrae Phan Thị Kim Phúc, all’epoca di 9 anni, in lacrime e completamente nuda (i vestiti erano bruciati), che fugge dopo un attacco al napalm degli americani che colpì il suo villaggio occupato dalla forze nord vietnamite. Insieme a lei i due fratelli minori (uno dei quali perse un’occhio nell’attacco). Nel video (Alan Downes, British ITN news) i bambini gridano “brucia, brucia”.

Dopo la ripubblicazione della foto, Facebook invia una comunicazione al giornale, invitando a rimuovere l’immagine o a pixellarla, perché mostra i genitali di una minore. Al rifiuto del giornale, Facebook rimuove l’immagine e sospende l’account di Egeland. Non solo, di seguito rimuoverà anche l’articolo del giornale che parlava della questione e addirittura il post del primo ministro norvegese che aveva ripubblicato la foto invitando Facebook a riconsiderare le sue policy di pubblicazione.

Un editore piccolo piccolo

Appare evidente che le policy di Facebook non sono state in grado di distinguere un’immagine pedopornografica dal simbolo della devastazione di una guerra e quindi sotto tale profilo come editore Facebook mostra tutti i suoi limiti.
Qualcuno potrebbe sostenere che è un problema di algoritmi, ma in realtà, dato l’eco della rimozione e le proteste, l’immagine è stata poi analizzata anche da personale umano. E qui sorge il problema, perché un portavoce di Facebook ha confermato che è difficile distinguere tra pedo-pornografia e foto simbolo.

Non è, quindi, un problema di algoritmi poco flessibili, ma di regole interne del social e della scarsa preparazione del personale deputato a tali valutazioni, che non sono in grado di distinguere tra il simbolo di una guerra e l’immagine lasciva di corpi nudi.
L’importanza storica della foto fu acclarata già nel 1972, quando esistevano regole che impedivano la pubblicazione di nudi, specialmente se di minori, eppure il capo fotografo dell’Associated Press volle pubblicare la foto di Nick Ut. Anche il New York Times decise alla fine di pubblicare la foto perché di interesse pubblico. Inoltre, il fotografo Nick Ut nel 1973 vinse il premio Pulitzer per questa foto.

Non solo. Facebook mostra di non ammettere repliche alle proprie decisioni, sospendendo l’account di Egeland quando questi protesta per la rimozione della foto.
E solo dopo aver ascoltato la propria community, Facebook cambia idea e autorizza la pubblicazione dell'immagine. Nel 2016 c’è voluta una protesta per far pubblicare questa foto, che altrimenti sarebbe rimasta sepolta con tutta la storia che essa evoca. È evidente che qualcosa non va, che la tecnologia senza cultura non è sufficiente, la tecnologia da sola non è in grado di fornire tutte le risposte.

L'immagine simbolo

L’immagine è una foto simbolo delle devastazioni causate da una guerra. Kim Phuc oggi, sposata con due figli, ambasciatrice dell’Unesco e fondatrice di un’associazione che aiuta le vittime delle guerre, a 40 anni di distanza da quell’orribile attacco soffre ancora per le conseguenze dell’uso del napalm, e dopo aver cercato per anni di fuggire da quell’immagine ha deciso di abbracciarla come una delle tante cicatrici che porta ancora sul corpo. Fu lo stesso Ut a portare la bambina in ospedale, convincendo i medici a curarla. Ut è rimasto in contatto con Kim Phuc, che ancora oggi definisce “figlia”.

Nick Ut e Kim Phuc
Nick Ut e Kim Phuc

All’epoca il presidente americano Nixon sollevò dubbi sull’autenticità (sostenne che la foto fosse stata modificata, fixed), ma dalla pubblicazione della foto l’opinione pubblica cominciò a domandarsi se quella guerra aveva un senso. Molti ritengono che fu anche quell'immagine a orientare l’opinione pubblica e a fermare la guerra.

The picture for me and unquestionably for many others could not have been more real. The photo was as authentic as the Vietnam War itself. The horror of the Vietnam War recorded by me did not have to be fixed. That terrified little girl is still alive today and has become an eloquent testimony to the authenticity of that photo. That moment thirty years ago will be one Kim Phúc and I will never forget. It has ultimately changed both our lives. (Nick Ut)

Editori e super-editore

Quando si presentano situazioni del genere si comincia immediatamente a discutere sulle responsabilità editoriali di Facebook. Molti vedono Facebook come un editore, una media company, anche se non produce direttamente contenuti, perché poi in effetti questi contenuti li manipola e gestisce, decide cosa promuovere, decide cosa oscurare. In tal senso pone in essere delle decisioni tipicamente editoriali.

In questo modo, però, si dimenticano due aspetti fondamentali. Innanzitutto, se Facebook domani decidesse di voler essere una media company, potrebbe anche legittimamente decidere di agire come tale e veicolare contenuti a favore di una parte politica e contro l'altro partito. Diciamolo chiaramente, nessun editore è neutrale. La gestione dei trending topic, ad esempio, avrebbe mostrato una certa tendenza a censurare le notizie rivolte ai conservatori. Considerando che di Facebook ce n'è uno solo, e non c'è alcuna concorrenza a questo livello, a differenza dei giornali che comunque sono molti, questo potrebbe essere un problema di non poco conto.

L'altro problema è che nel giudicare Facebook una media company si perde di vista la realtà dei fatti, come spiega Jeff Jarvis. Un editore vende notizie, invece Facebook vende pubblicità e acquista (si fa per dire) dati personali degli utenti. I prodotti editoriali sono soltanto una merce di scambio nell'enorme ecosistema Facebook.
Il business di Facebook, come di altre aziende tecnologiche, non ha niente a che fare con le notizie, al punto che Facebook stessa ci “gioca” facendo esperimenti di manipolazione. Il business delle aziende di Internet è, invece, plasmare i comportamenti della vita dei loro utenti per alimentare le entrate sotto forma di pubblicità.

Il punto è che oggi aziende come Facebook, Apple, Google, hanno la capacità di incidere su gran parte della popolazione mondiale e forniscono servizi che non si possono più non considerare essenziali per la partecipazione sociale di base. Attraverso Facebook, e non solo, i cittadini esercitano la libertà di espressione e il diritto all’informazione, attuano il diritto alla partecipazione sociale. L’incidenza delle aziende del web su questi diritti è, quindi, ben più vasta rispetto a quanto potrebbe mai fare un semplice editore o media company.
Avete mai visto un cittadino esercitare la libertà di espressione su un giornale o in televisione?

Le policy aziendali e i terms of service delle aziende del web sono divenuti un mezzo di manipolazione delle emozioni e della coscienza degli individui che va molto oltre una mera problematica di responsabilità editoriale. Queste aziende si arrogano sempre più il diritto di manipolare la realtà e la storia, si tratti di rimuovere contenuti che presentano nudità, oppure moralmente discutibili, che invitano al razzismo o semplicemente provocatori, si tratti di immagini di studenti ubriachi o fluidi corporei, di allattamento al seno o genitali di minori. Stiamo parlando di un modo di imporre una visione del mondo, che sia, ovviamente, più congeniale al loro business.

Facebook è un’azienda mossa dal profitto, e il suo profitto si alimenta realizzando un sistema, chiuso, sobrio, pulito, rassicurante, amichevole. Su Facebook proliferano le immagini di gatti, pasti, viaggi, amici e tutto ciò che è disturbante viene più o meno silenziosamente rimosso. Ma, considerato che Facebook raggruppa persone di tutte le età, di diversa estrazione sociale e culturale, di paesi diversi e con sensibilità diverse, un ambiente perfetto per alimentare i profitti deve fare i conti con i contenuti che disturbano una vasta congerie di individui.
Sono tanti i contenuti rimossi su Facebook, come si può leggere sul sito OnlineCensorship, e molto spesso non lo sappiamo nemmeno.

Anche Jarvis, che vede più acutamente il problema, alla fine suggerisce l'inserimento di un livello editoriale superiore in Facebook che però ha un pubblico decine di volte più grande di qualsiasi altro editore e la sua influenza è maggiore di qualsiasi giornale, pubblica in centinaia di paesi e dovrebbe utilizzare più editori, che abbiano una sensibilità adeguata agli usi e costumi dei vari paesi.

Come argomenta Mantellini (che comunque ricade sulla questione “editore”), i meccanismi censori utilizzati da Facebook hanno un senso finché la piattaforma aggrega un numero limitato di individui. Le prime piattaforme online funzionavano così: vi erano centinaia o anche migliaia di utenti e dei moderatori che applicavano delle policy, talvolta anche piuttosto rigide. È un po’ il discorso che ognuno in casa sua fa quello che vuole e può anche pretendere che gli ospiti scalzi non possano entrare o che non si raccontano barzellette sconce. Ma quando la “casa” si allarga fino a inglobare 1,7 miliardi di persone è evidente che quel meccanismo non funziona più.

Il punto è che ad un certo livello non si può più dire che quello è un privato, e che se non ci piacciono le sue policy possiamo andare da un’altra parte. Se non mi piace un giornale, se non gradisco la sua linea politica, posso comprarne un altro. Ma se non mi piace la linea politica di Facebook? Alcune realtà del web sono talmente grandi, e agiscono in regime di monopolio, che non c’è più nessuna altra parte dove andare. L’alternativa è rimanere fuori.

Facebook: una piattaforma di intermediazione

Inquadrare Facebook come editore appare soltanto come un modo per incasellare una realtà completamente nuova in schemi antichi e inappropriati a definire la realtà moderna. Facebook in realtà è una piattaforma di intermediazione, che mette in contatto tra loro persone e aziende (più o meno come il gestore dell’energia elettrica), in un rapporto di molti a molti. Come intermediario della comunicazione esistono specifiche norme in materia che regolamentano le sue attività (es. direttiva europea e-commerce), che hanno lo scopo di alimentare la concorrenza e l’innovazione impedendo di assoggettare tali aziende ad eccessivi oneri burocratici. Le regole precisano che una piattaforma tecnologica per non rispondere dei contenuti che veicola deve rimanere neutrale, cioè non deve entrare nel merito dei contenuti e limitarne il flusso, a meno che essi non siano illeciti o vi sia uno specifico ordine dell’autorità.

Oggi tali norme, pensate per motivi economici, appaiono insufficienti. Sono leggi pensate per assegnare una responsabilità civile o penale all’intermediario in caso di pubblicazione di contenuti illeciti, nel caso specifico, invece, la rimozione della foto non configura alcun illecito.

La dimensione delle aziende tecnologiche è tale che le loro decisioni si riverberano su una quantità enorme di individui, cittadini di centinaia di nazioni, determinando pesanti ricadute sui loro diritti fondamentali. Attualmente in alcune nazioni Facebook è considerato praticamente sinonimo di Internet, visto che è il principale se non l’unico mezzo di collegamento tra i cittadini e le notizie del mondo esterno (es. in alcun paesi dell’Africa).

Quindi, l’incidenza della decisioni di Facebook ormai va ben oltre una sfera meramente economica o editoriale, fino a coprire i diritti fondamentali dei cittadini.
Il mondo di Internet è immateriale ed onirico, un mondo nel quale la forma vale più della sostanza e la diffusione più del sapere, è un mondo nel quale i governi e le autorità stanno smettendo progressivamente il loro ruolo di regolatori a fronte di una privatizzazione spinta, un laissez faire che delega alle aziende la regolamentazione dei più minuti aspetti della nostra vita quotidiana, che ormai incide pesantemente sull’autodeterminazione degli individui.

Iscriviti alla nostra Newsletter


Come revocare il consenso: Puoi revocare il consenso all’invio della newsletter in ogni momento, utilizzando l’apposito link di cancellazione nella email o scrivendo a info@valigiablu.it. Per maggiori informazioni leggi l’informativa privacy su www.valigiablu.it.

I cittadini, spaesati ed abbandonati dalla politica (sarà per questi che i cittadini criticano tanto i politici?) devono sempre più spesso sopperire all’assenza di uno Stato. Certe volte il risultato si ottiene, come in questo caso, ma è ormai improcrastinabile un nuovo intervento regolatorio, a livello globale, da parte dei governi e delle autorità sovranazionali, che devono riprendere nelle loro mani i compiti che hanno per troppo tempo privatizzato e delegato. Qui non si tratta più di tutelare l’innovazione, di favorire gli scambi commerciali, di alimentare il Digital Single Market, si tratta di garantire l’esercizio dei diritti fondamentali dei cittadini sulle piattaforme del web. Talvolta viene il dubbio che questo alla politica non interessi, perché un cittadino che esercita il diritto di critica e che partecipa alla vita pubblica da fastidio al “manovratore”, ma è questa la sfida dell’era digitale.

Non dimentichiamo che alla fine Facebook ha autorizzato la foto non perché ritiene che sia giusto, ma perché ha ascoltato la "propria community", così come avvenuto con la campagna #freethenipple a favore dell’allattamento al seno (come dice Mark Zuckerber: "people first"). Il valore della sua condivisione supera il valore della protezione della community, come dire noi facciamo quello che rende più felice possibile i nostri utenti, quello che li convince a condividere tutto, perché è ciò che ci fa guadagnare più soldi. Il resto è irrilevante.

Leggi anche: "Facebook censura la foto della guerra in Vietnam. Poi ci ripensa"

Segnala un errore