Diritti Digitali Post

YouTube, nuove regole contro molestie e odio online

26 Dicembre 2019 5 min lettura

author:

YouTube, nuove regole contro molestie e odio online

5 min lettura

YouTube ha aggiornato le linee guida contro le molestie online. La nuova policy copre sia il contenuto dei video che i commenti pubblicati dagli utenti e prevedere la possibilità di espulsione dalla piattaforma per insulti discriminatori e per minacce velate o implicite. È la politica sui contenuti più restrittiva che la piattaforma abbia mai avuto.

Fino a oggi, YouTube aveva proibito video che minacciassero esplicitamente una persona, rivelassero informazioni confidenziali personali, o incoraggiassero gli spettatori a molestare qualcuno. Adesso saranno inclusi tra i comportamenti proibiti anche le "minacce velate o implicite", come per esempio la simulazione di un atto violento contro un individuo o ipotizzare che un individuo possa essere vittima di violenza fisica.

Inoltre, la compagnia adotterà una linea più severa nei confronti di chi rivolge insulti malevoli a un individuo sulla base dell'appartenenza a un gruppo protetto, a prescindere dal fatto che si tratti o meno di una personalità di spicco.

In un post pubblicato sul sito ufficiale, la CEO Susan Wojcicki dichiara che YouTube continuerà ad essere una piattaforma aperta ma che non tollererà più le molestie online e che questi cambiamenti sono pensati per proteggere i creatori di contenuti e la community.

Leggi anche >> Intelligenza artificiale, filtri e contenuti sui social: “L’odio resterà. A sparire saranno i diritti e le libertà degli individui”

Prima di effettuare le ultime modifiche alla policy la compagnia dice di aver consultato diverse tipologie di organizzazioni, di ogni orientamento politico: organizzazioni che studiano il bullismo online, in difesa dei giornalisti, o in difesa della libertà d'espressione. E per evitare che le nuove regole entrino in conflitto con alcuni diritti fondamentali ha previsto una serie di possibili eccezioni:

“Potremmo consentire contenuti che includono molestie se il loro scopo principale è didattico, documentaristico, scientifico o artistico. Ciò non costituisce tuttavia un pretesto per molestare altre persone.”

La corsa di YouTube contro l’odio e le molestie online

Gli aggiornamenti alla policy non dovrebbero sorprendere chi ha seguito da vicino l’evoluzione della moderazione sui social network degli ultimi anni. YouTube è stata più volte additata dai media come luogo di comportamenti negativi, molestie e odio online. E con il passare del tempo si è dimostrata sempre più severa nella moderazione dei contenuti pubblicati dagli utenti, per mettersi al riparo dalle accuse di avere avuto un ruolo determinante nella diffusione di false credenze (come il terrapiattismo) e nella radicalizzazione di convinzioni estreme come il suprematismo bianco, il negazionismo dell’Olocausto (per fare un esempio concreto) o il complottismo (in termini più generali).

Ciò che sorprende questa volta è la velocità con cui i nuovi regolamenti sono stati applicati: già dal giorno dopo l’annuncio la piattaforma ha iniziato a cancellare i video che non rispettavano la policy.

Anche se la compagnia non lo ha mai confermato esplicitamente, uno dei casi che potrebbe aver spinto verso l’adozione di una policy più restrittiva è quello del giornalista latino del sito americano Vox, Carlos Maza, vittima di ripetuti insulti razzisti e omofobi da parte del youtuber comico di destra Steven Crowder e dei suoi follower.

Pochi mesi fa, Maza aveva apertamente contestato YouTube per l'inazione davanti a questi attacchi e molti utenti si erano uniti a questa critica. La CEO della compagnia si era scusata con il giornalista, ma aveva colto l’occasione per difendere la propria policy che, in quel momento, dava diritto ai video di Crowder di restare online. Adesso alcuni di quei video sono stati eliminati dalla piattaforma.

Carlos Maza ha commentato questo cambio di rotta con scetticismo: “Queste policy funzionano solamente se YouTube è disposto a bloccare chi, fra coloro che le infrangono, è più popolare. E non c’è ragione, almeno per ora, per credere che lo sia”.

Intelligenza artificiale o persone: chi controlla e su chi ricade la responsabilità e il peso di queste decisioni

Al di là dei dubbi del giornalista di Vox sulla reale determinazione di YouTube nel far rispettare le nuove misure, ogni volta che la policy sui contenuti di un social network dà un giro di vite, emergono una serie di interrogativi su come avverrà la moderazione e con quali tempistiche.

Leggi anche >> La moderazione dei contenuti sui social funziona male e andrebbe completamente rivista

La cancellazione dei contenuti verrà decisa da un algoritmo? E, se così fosse, in che modo l’AI sarà capace di riconoscere le “minacce velate o implicite”? Pochi mesi fa ci trovavamo a riflettere sul fatto che questo modus operandi porta inevitabilmente a una cancellazione preventiva (prima che un umano possa verificare la decisione della macchina) dei contenuti, molti dei quali possono essere “falsi positivi”, ossia contenuti che rispettano la policy ma che confondono l’algoritmo. E in alcuni casi potrebbe trattarsi di video che hanno grande importanza per la società, per la storia o per i cittadini.

E se il problema dell’algoritmo e dei “falsi positivi” era già emerso quando YouTube aveva provato a filtrare i contenuti estremisti di carattere terroristico o neo-nazista, la situazione diventa ancora più complessa se parliamo di “minacce velate o implicite”, per il semplice fatto che l’intelligenza artificiale non è in grado di distinguere l’intenzione con cui certi contenuti sono diffusi.

Leggi anche >> I problemi di YouTube nella sua lotta contro l’odio: rimossi video antirazzisti e canali di storia

E se invece questa volta ad occuparsi della moderazione sarà un team “umano”, dobbiamo interrogarci su chi siano e quante siano queste persone. Sono dipendenti della compagnia o è un lavoro che sarà esternalizzato? Sono qualificate? Hanno diritto all’assistenza psicologica adeguata per far fronte ai traumi che potrebbe causargli questa attività? La moderazione dei contenuti è infatti un lavoro pericoloso e stressante.

La maggior parte delle piattaforme appalta il lavoro di moderazione ad altre aziende che assumono persone che revisionano ogni giorno i contenuti segnalati o che possono violare le policy dei social network. Come hanno mostrato alcune inchieste giornalistiche, si tratta di un lavoro mal pagato e devastante per la salute psico-fisica: i dipendenti di queste società hanno parlato dello stress continuo al quale erano sottoposti durante la moderazione dei contenuti, di crisi di panico, disturbi da stress post-traumatico.

Quella che potremmo essere tentati di vedere come una terza via, ossia la collaborazione tra intelligenza artificiale e umana, si porta dietro le problematiche di entrambi i casi e di certo non mette al riparo da possibili errori, siano essi umani o no. Questo perché la tempistica gioca un ruolo fondamentale quando si tratta di una quantità di contenuti così vasta: stiamo parlando di una piattaforma che ha oltre un miliardo di utenti a cui accedono quasi due miliardi di persone mensilmente che guardano oltre un miliardo di ore di video, generando miliardi di visualizzazioni.

Foto via donthatethegeek

Iscriviti alla nostra Newsletter

  Consenso all’invio della newsletter: Dai il tuo consenso affinché Valigia Blu possa usare le informazioni che fornisci allo scopo di inviarti la newsletter settimanale e una comunicazione annuale relativa al nostro crowdfunding.
Come revocare il consenso: Puoi revocare il consenso all’invio della newsletter in ogni momento, utilizzando l’apposito link di cancellazione nella email o scrivendo a info@valigiablu.it. Per maggiori informazioni leggi l’informativa privacy su www.valigiablu.it.
Segnala un errore