Diritti Digitali Post

I problemi di YouTube nella sua lotta contro l’odio: rimossi video antirazzisti e canali di storia

19 Giugno 2019 5 min lettura

author:

I problemi di YouTube nella sua lotta contro l’odio: rimossi video antirazzisti e canali di storia

5 min lettura

All’inizio di giugno YouTube ha annunciato in un post sul suo blog ufficiale le nuove misure con cui il social network ha intenzione di combattere l’odio online e il razzismo. Nel corso dell’ultimo anno, infatti, la piattaforma video più famosa del mondo ha realizzato oltre 30 aggiornamenti alla propria policy, per mettersi al riparo dalle accuse di avere avuto un ruolo determinante nella diffusione di false credenze e nella radicalizzazione di convinzioni estreme come il suprematismo bianco, il negazionismo dell’Olocausto (per fare un esempio concreto) o il complottismo (in termini più generali).

“Oggi facciamo un nuovo passo avanti nella nostra policy contro l’odio in rete con la proibizione specifica di tutti quei video nei quali si asserisce che un gruppo è superiore ad altri con l’obiettivo di giustificare discriminazione, segregazione o esclusione basate su attributi come l’età, il sesso, la razza, la classe sociale, la religione, l’orientazione sessuale o stato di veterano [considerato negli Stati Uniti un gruppo sociale svantaggiato]. Questo potrebbe includere, per esempio, video che promuovono la glorificazione dell’ideologia nazista, che è intrinsecamente discriminatoria. Inoltre, rimuoveremo contenuti che negano che eventi violenti documentati, come l’Olocausto o la sparatoria della scuola Sandy Hook Elementary, siano realmente avvenuti.”

Una decisione che sembra seguire i passi di Facebook che da qualche mese ha vietato il nazionalismo bianco e il separatismo bianco sulla propria piattaforma.

YouTube prova ad affrontare anche un'altra delle sue debolezze: l’algoritmo che consiglia quali video vedere agli utenti in base alla loro cronologia. I detrattori di questa funzionalità hanno accusato più volte YouTube di retroalimentare con le proprie raccomandazioni le convinzioni estreme di alcune persone, contribuendo alla radicalizzazione di credenze e valori iniqui per gli individui e per la società. Stiamo parlando di contenuti che possono rappresentare un pericolo per le persone, come per esempio video che promuovono rimedi “miracolosi” alternativi per la cura di malattie serie (disinformazione medico-scientifica, quindi), o video che sostengono che la terra sia piatta (cospirazionismo e affini). Questi contenuti non verranno rimossi, ma il social network smetterà di consigliarne la visione. Questa modifica all’algoritmo è già stata sperimentata (seppur a effetto limitato) negli Stati Uniti e YouTube si augura che entro la fine di quest’anno l’aggiornamento riguarderà anche il resto del mondo e avverte che la selezione dei video da consigliare migliorerà con il tempo grazie al machine learning.

Le conseguenze di una scelta irresponsabile

Poche ore dopo l’annuncio, però, la nuova policy ha iniziato a mostrare i primi risultati indesiderati. È emblematico il caso di Scott Allsop, un insegnante di storia della British School of Bucharest, che si è visto chiudere il proprio canale con oltre 120 video di carattere storico, che coprivano diversi avvenimenti degli ultimi 1000 anni. Il materiale riguardante il nazismo era circa il 10%. Il canale creato a scopo formativo e rivolto a insegnanti e studenti è stato chiuso per aver infranto la nuova policy sul linguaggio d’odio (“hate speech”), probabilmente per via dei video sulla Seconda guerra mondiale.

Paradossalmente è stato cancellato anche il canale ufficiale del Centro di Studi sull'Odio e sull'Estremismo della California State University (riabilitato in seguito alla pubblicazione di un articolo del Los Angeles Times). E queste non sono certo le uniche vittime collaterali della recente "purga" operata da YouTube. Sono tante le testimonianze di formatori, giornalisti, ricercatori ed esperti che si succedono in questi giorni su Twitter.

In alcuni casi il sistema si è dimostrato anche impreparato rispetto alle segnalazioni di massa da parte di estremisti di destra che, paradossalmente, hanno segnalato e ottenuto la cancellazione di contenuti antinazisti, appellandosi proprio alla policy contro il suprematismo bianco.

Non è la prima volta che la piattaforma video di Google si trova in questa situazione. Nell’estate del 2017, YouTube introdusse un sistema automatizzato di machine learning per rimuovere i video che infrangessero la nuova policy sul terrorismo. Con una conseguenza imprevista per la storia siriana. Automaticamente l’algoritmo rimosse un numero considerevole di contenuti che promuovevano la propaganda estremista dell’lsis in Siria, ma furono cancellati in maniera indiscriminata anche tantissimi video pubblicati da giornalisti e attivisti, molti dei quali testimoniavano le atroci violenze che venivano perpetrate nel paese. Oltre 900 canali (legittimi) sulla Siria scomparvero nel giro di pochi giorni. Anche in quel caso l’errore madornale  fu una conseguenza delle pressioni da parte legislatori (soprattutto in Europa) che chiedevano ai social network di identificare e rimuovere i contenuti di terrorismo entro poche ore dalla pubblicazione, una richiesta che obbliga di fatto le piattaforme a usare filtri automatizzati per trovare ed eliminare materiale potenzialmente sensibile.

Leggi anche >> Intelligenza artificiale, filtri e contenuti sui social: “L’odio resterà. A sparire saranno i diritti e le libertà degli individui”

“Meglio chiedere il perdono, che il permesso", recita il detto popolare. E YouTube sembra aver optato ancora una volta per la forza bruta, riservandosi di chiedere scusa a posteriori.

"Siamo ancora lontani da dove vogliamo arrivare", ha ammesso l'amministratore delegato di Google, Sundar Pichai, che si è detto però soddisfatto dei grandi progressi che sta facendo YouTube in questo frangente. "Le modifiche alla policy sono sempre complicate, specialmente all'inizio", ha dichiarato al Washington Post il portavoce di Youtube Farshad Shadlo.

I problemi da risolvere, però, non sono solo di natura tecnica, bensì concettuale. Questo modus operandi porta inevitabilmente a una cancellazione preventiva dei contenuti, molti dei quali non solamente rispettano la policy, ma sono di cruciale importanza per la società, per la storia e per i cittadini. Non si può pensare di affidarsi a un algoritmo per filtrare contenuti estremisti, siano essi di carattere terroristico, neo-nazista o suprematista bianco, senza considerare le disastrose conseguenze per la libertà d’espressione, per la memoria storica e per l’informazione.

Il sistema non è in grado di distinguere l’intenzione con cui certi contenuti sono stati diffusi. Non tiene conto del fatto che lo stesso video postato in contesti diversi può avere finalità diametralmente opposte: un filmato storico di un discorso di Hitler può essere pubblicato con l’intenzione di propagare quelle idee, certo, ma nella maggior parte dei casi la condivisione e diffusione dei filmati della Seconda guerra mondiale ha uno scopo formativo, informativo e di memoria storica, il cui valore è nettamente superiore a una ipotetica protezione dal linguaggio d’odio.

Il filtraggio dei contenuti è un lavoro che attualmente nessun algoritmo è in grado di svolgere autonomamente senza conseguenze indesiderate. E la soluzione non può essere quella di uccidere le mosche con il bazooka perché non si hanno altri strumenti. Come scrive il sito Technology Review del MIT di Boston: “Non ci sono scuse. Questa complessità non esonera YouTube, proprietà di Google, dalle sue responsabilità”.

Leggi anche >> La moderazione dei contenuti sui social funziona male e andrebbe completamente rivista

Il problema di YouTube deriva dal suo immenso potere di diffusione. Ogni decisione che prende ha conseguenze sulla libertà di espressione di milioni di persone. Ogni volta che chiediamo (attraverso la politica) ai social network di rimuovere i cosiddetti contenuti nocivi per la società, stiamo di fatto delegando un potere enorme a imprese private, stiamo chiedendo loro di diventare i censori ufficiali delle nostre democrazie.

E quando una piattaforma a cui accedono quasi 2 miliardi di persone mensilmente cancella la storia, non possiamo essere indulgenti.

Iscriviti alla nostra Newsletter

  Consenso all’invio della newsletter: Dai il tuo consenso affinché Valigia Blu possa usare le informazioni che fornisci allo scopo di inviarti la newsletter settimanale e una comunicazione annuale relativa al nostro crowdfunding.
Come revocare il consenso: Puoi revocare il consenso all’invio della newsletter in ogni momento, utilizzando l’apposito link di cancellazione nella email o scrivendo a info@valigiablu.it. Per maggiori informazioni leggi l’informativa privacy su www.valigiablu.it.