Media Literacy Post

Come funziona la moderazione su Facebook. Una fonte lo rivela a Valigia Blu

29 Agosto 2017 8 min lettura

author:

Come funziona la moderazione su Facebook. Una fonte lo rivela a Valigia Blu

Iscriviti alla nostra Newsletter

7 min lettura

Giorni fa abbiamo ricevuto una mail da una fonte che vuole rimanere anonima e che lavora per una delle aziende a cui Facebook ha appaltato il lavoro di moderazione. Cosa emerge dal suo racconto e qual è la risposta di Facebook Italia.

...

Il 2017 è segnato dall'evoluzione continua di Facebook nel tentativo di migliorare il proprio ecosistema. La lotta al clickbait, alle notizie false, al linguaggio d'odio e al razzismo, da una parte, e le problematiche legate al rischio di censura, ai video in diretta, alla trasparenza e alle pressioni dei governi, dall'altra, hanno portato Facebook a confrontarsi con questioni che fino a pochi anni fa potevano essere considerate marginali.

Possiamo dire che nell'ultimo anno la moderazione dei contenuti è stata il tallone d'Achille del social network. E come abbiamo visto in diverse occasioni, trovare un giusto compromesso tra diritto di parola (che negli Stati Uniti è considerato uno dei valori più importanti della democrazia) e rimozione dei contenuti non è per niente facile.

Pochi giorni fa Arianna Ciccone faceva l'esempio di quanto accaduto a Marco Tonus, disegnatore satirico bloccato su Facebook per un'illustrazione di qualche anno fa scambiata per apologia del nazismo.

Nel caso di Tonus il blocco è stato rimosso pochi giorni dopo, con il riconoscimento dell'errore da parte di Facebook. Ma come funziona esattamente la moderazione dei contenuti? Siamo davvero nelle mani di algoritmi che non sono in grado di capire l'ironia? E come può migliorare questa situazione?

Dopo lo status di Arianna Ciccone, siamo stati contattati da un analista-moderatore Facebook (che preferisce mantenere l'anonimato e noi abbiamo accettato visto che potrebbe perdere il lavoro), che lavora per un'impresa di servizi tecnologici, che gestisce la moderazione per conto di Facebook. Il social network esternalizza infatti queste operazioni a imprese specializzate nell'analisi e gestione delle conversazioni online come ArvatoCpl RecruitmentBCforwardAccenture, etc.

L'iscrizione a Facebook è vincolata all'accettazione delle condizioni d'uso della piattaforma: una sorta di regolamento che dice agli utenti cosa è permesso e cosa non è permesso fare sul social network. La trasgressione di queste linee guida comporta una sanzione, come per esempio l'eliminazione di un contenuto ritenuto non idoneo agli standard della community, il blocco temporaneo del profilo o il ban permanente.

È importante ricordare che la rimozione di contenuti, il ban o il blocco temporaneo di un profilo sono sempre preceduti dalle segnalazioni degli utenti Facebook, ci spiega la nostra fonte. La responsabilità dei famigerati algoritmi, tirati in ballo troppo spesso come capro espiatorio, è invece marginale. Esistono sì dei filtri che segnalano contenuti potenzialmente dannosi per la community (pornografia, spam, etc.), ma ogni decisione di rimozione ricade sempre sul giudizio (umano) di un analista (che lavora nel cosiddetto "team di Community Operations").

Oggi come oggi la priorità non è quindi rendere gli algoritmi più "intelligenti", ma selezionare un team altamente qualificato per svolgere questo lavoro. In attesa dell'algoritmo perfetto (se mai esisterà) dobbiamo ricordarci che le segnalazioni degli utenti sono esaminate da moderatori umani, con tutti i problemi che questo comporta: fretta, pregiudizi, gap culturale, errori, etc.

Criteri di selezione dei moderatori e gap culturale

Oltre a confermarci in parte quanto già rivelato dalle inchieste del Guardian e di ProPublica, la nostra fonte pone l'accento sui criteri di selezione del personale. Il social network fornisce sì le linee guida e il supporto per interpretare i contenuti, ma non interviene nelle modalità con cui l'impresa a cui è affidato il lavoro seleziona i moderatori.

Questo modus operandi, ci spiega l'analista, avrebbe effetti estremamente negativi sulla qualità del lavoro.

Nessuna delle multinazionali che svolgono tali funzioni per Facebook ha sedi in Italia destinate a questo progetto e per loro la soluzione più conveniente è assumere personale locale con una sufficiente comprensione della lingua italiana. Secondo la nostra fonte, il risultato sarebbe la formazione di team misti composti da italiani e italofoni, con una remunerazione leggermente al di sotto dello stipendio medio del paese in cui operano.

Una persona di un'altra nazionalità che ha studiato l'italiano sarà certamente in grado di capire il significato letterale dei commenti scritti in quella lingua, ma non avrà mai il background culturale e le conoscenze di una persona nata e cresciuta in Italia per comprendere determinati contesti e interpretare contenuti ambigui. E le ambiguità, le iperboli, le analogie sono il sale del sarcasmo, dell'ironia e della satira. Senza contare la difficoltà che uno straniero (per quanto qualificato e preparato) può avere nel cogliere i riferimenti al contesto politico e sociale, alla cultura, alla società o alla nostalgia generazionale.

Questo gap culturale, prima ancora che linguistico, si traduce in una moderazione dei contenuti approssimativa, spesso letterale. Più propensa all'eliminazione di foto, status e commenti ritenuti ambigui che alla comprensione del contesto nel quale essi sono inseriti e del loro significato reale. A questa situazione, di per sé grave, dobbiamo aggiungere il fattore tempo.

Quantità, non qualità

Il Guardian ha stimato che il tempo medio che un moderatore impiega per decidere se un contenuto rispetta o no le linee guida è di circa 10 secondi. Questo si deve alla mole enorme di segnalazioni da controllare e al numero relativamente ridotto di analisti.

La nostra fonte ci ha confermato che le imprese che lavorano per Facebook tendono a privilegiare la quantità e non la qualità, per cui se si vuole mantenere una produttività alta non è possibile soffermarsi troppo sul contesto della conversazione. È nell'interesse dell'azienda (che fattura a Facebook in base alla quantità di segnalazioni analizzate), è nell'interesse degli analisti (che ricevono incentivi per la velocità con cui svolgono il loro lavoro), ma non è certo nell'interesse di noi utenti.

La fretta (banalmente) è probabilmente la causa del blocco inflitto al disegnatore satirico Marco Tonus. Scorrendo freneticamente status, commenti, immagini, il moderatore può aver confuso quel disegno per una vera svastica (simbolo d'odio non permesso dalle linee guida del social network), non capendo che si trattava di una parodia grafica in un contesto politico/satirico (situazione tollerata dalle linee guida e non passibile di ban).

Un altro caso eclatante degli ultimi giorni è il blocco di 24 ore inflitto a Massimo Biancalani, un prete di Pistoia che aveva pubblicato delle foto che ritraevano alcuni ragazzi africani durante un momento di svago in piscina, accompagnate dalla scritta: "Loro sono la mia patria, i razzisti e i fascisti i miei nemici!"

https://www.facebook.com/massimo.biancalani/posts/10214348974500574

È difficile immaginare che quelle foto possano violare la linee guida del social network. Eppure questo è stato il verdetto dei moderatori di Facebook in seguito alle segnalazioni ricevute dagli utenti. Segnalazioni probabilmente arrivate dopo che Matteo Salvini ha pubblicato questo tweet con l'obiettivo di aizzare il suo seguito contro il parroco, che per 24 ore ha ricevuto insulti sul suo profilo senza avere la possibilità di replicare.

Prima di prendercela con i fantomatici algoritmi, imperfetti, impreparati, incapaci di ridere alle nostre battute, dobbiamo quindi riflettere su come Facebook gestisce la moderazione dei contenuti: esternalizzando il lavoro a un'impresa che può assumere personale di fatto non qualificato per svolgere quel lavoro. E per svolgerlo nel minor tempo possibile. Questo è il nocciolo della questione.

Facebook ha dimostrato in diverse occasioni di essere sensibile alle richieste dell'opinione pubblica, per questo è importante che siano gli utenti in primis a pretendere maggiore trasparenza. Le aziende come Facebook, Twitter e Google sono fortemente impegnate nel contrastare il terrorismo, per questo sono stati fatti investimenti sia in termini tecnologici, di ricerca che in termini di assunzioni di personale qualificato. Pensiamo che anche per la moderazione dei commenti e l'applicazione delle policy sia necessario questo tipo di impegno e di investimento. In gioco ci sono i diritti dei cittadini e la libertà di espressione.

...

Abbiamo contattato Facebook Italia per un commento. Il social network ha confermato a Valigia Blu ciò che abbiamo scritto sugli algoritmi: la moderazione è sempre svolta da esseri umani, mentre la funzione degli algoritmi è di solo sostegno ai moderatori. Per esempio, i moderatori non ricevono tutte le  segnalazioni per ogni contenuto, ma l'algoritmo invia loro un'unica segnalazione riassuntiva. Inoltre, gli analisti sono divisi per aree di specializzazione (spam, profili falsi, pornografia, linguaggio d'odio, etc.) ed è l'algoritmo che, in base alle segnalazioni ricevute, decide a quale area destinare la moderazione di un determinato contenuto. 

Facebook ci ha confermato inoltre che il "team locale" italiano non si trova in Italia ma all'estero (per motivi di sicurezza non possono rivelare in quale città) e opera sotto la guida del team centrale europeo di Dublino. Non hanno potuto rivelarci quali siano le competenze richieste per questo lavoro, né quali siano i criteri di selezione. Ci è stato detto soltanto che, sebbene la selezione del personale sia a carico dell'impresa che gestisce il lavoro in subappalto, quest'ultima deve rispettare i criteri di assunzione che Facebook segue per le sue assunzioni interne. Oltre al training di partenza, a tutti i moderatori vengono offerte 40 ore settimanali facoltative di sostegno psicologico: un programma specificamente pensato per supportare le persone che ricoprono questi ruoli. "Fornire un ambiente sicuro per la comunità di Facebook è la nostra priorità numero uno. Abbiamo creato un network globale di centri operativi in grado di lavorare 24 ore su 24, 7 giorni su 7, in modo da avere persone con le competenze linguistiche e culturali adeguate ad analizzare le segnalazioni che riceviamo. Abbiamo scelto di lavorare solo con partner globali altamente qualificati che si prendono cura dei propri dipendenti e che offrono remunerazioni adeguate", ha dichiarato Laura Bononcini, Head of Public Policy Facebook Italia. 

Iscriviti alla nostra Newsletter


Come revocare il consenso: Puoi revocare il consenso all’invio della newsletter in ogni momento, utilizzando l’apposito link di cancellazione nella email o scrivendo a info@valigiablu.it. Per maggiori informazioni leggi l’informativa privacy su www.valigiablu.it.

Ci è stato confermato che il social network si serve (anche) di madrelingua, ma che non tutte le segnalazioni necessitano di una persona madrelingua (ci è stato fatto l'esempio delle foto di nudo). Quando la conoscenza di una lingua è necessaria per una revisione, come in un caso di hate speech, questo compito sarebbe assegnato a un madrelingua, secondo quanto dichiarato da Facebook. In realtà, se torniamo all'esempio del prete bloccato per aver pubblicato delle foto con dei ragazzi africani in piscina, ci chiediamo come sia possibile che un moderatore qualificato e madrelingua possa giudicare quel contenuto razzista. Non ci è stato rivelato qual è la percentuale di madrelingua rispetto al totale. 

Parlando degli errori commessi, Facebook assicura che svolge controlli di qualità sulle decisioni prese dai moderatori, per essere sicuri di mantenere un'alta accuratezza nella gestione delle segnalazioni degli utenti e per imparare dagli errori. "Sappiamo che abbiamo ancora molto da fare e per questo motivo nel corso del prossimo anno aggiungeremo 3.000 persone al nostro team di Community Operations in tutto il mondo – oltre alle 4.500 già presenti – per migliorare la revisione dei milioni di segnalazioni che riceviamo ogni settimana”. Questi 3000 nuove assunzioni, però, non saranno fatta direttamente da Facebook: anche in questo caso il social network ricorrerà in larga misura all'esternalizzazione.

In conclusione, a nostro avviso rimane l'assoluta necessità di avere un team umano qualificato e competente sul territorio, con l'obiettivo di migliorare la gestione, la valutazione e offrire agli utenti la possibilità di fare appello contro la decisione di rimozione e ban. Appelli che dovranno essere poi gestiti nel minor tempo possibile. Obiettivamente, considerando che su Facebook siamo oltre 2 miliardi di utenti, il fatto che ci siano solo 7.500 persone a gestire la moderazione ci pare davvero troppo poco. Ripetiamo: stiamo parlando della nostra libertà di espressione e dei nostri diritti. L'aspetto della moderazione deve essere migliorato e potenziato sia sotto profilo delle competenze che per numero di moderatori coinvolti.

Segnala un errore

Array