Lavoro&Propaganda, così Poletti smentì di nuovo se stesso

Il ministro del Lavoro annuncia ‘+79mila contratti a tempo indeterminato nel 2015’, ma anche questa volta non tiene conto delle cessazioni. L’Istat registra un aumento della disoccupazione, con un mercato del lavoro che non vede segnali di ripresa.


photo-634855676366438828-1

Sono giorni frenetici riguardo l’andamento del mercato del lavoro italiano. Situazione dovuta alle dichiarazioni di Tito Boeri, nuovo presidente dell’Inps, sulle richieste di decontribuzione da parte delle imprese e seguite dagli annunci del governo con il ministro del Lavoro, Giuliano Poletti: «Nei primi due mesi del 2015 sono stati attivati 79 mila contratti a tempo indeterminato».

Gli annunci sortiscono effetti diversi, c’è chi li esalta e c’è chi si interroga per capire cosa realmente rappresentano quei numeri. Visti i precedenti del ministro Poletti era lecito attendere la pubblicazione dei dati sulle “comunicazioni obbligatorie”, per capire se le cifre dichiarate fossero veritiere e se rappresentassero nuovi posti di lavoro creati o solo una trasformazione contrattuale di quelli esistenti. Secondo il calendario del ministero del Lavoro, la pubblicazione di questi dati sarebbe dovuta avvenire il 5 giugno, ma il ministro ha deciso di anticipare la pubblicazione con dati però incompleti in cui mancano informazioni relative alla durata dei contratti e alle cause di cessazione. Un metodo scorretto che non aiuta i cittadini a capire quale sia la reale condizione del mercato del lavoro.

Ad emergere, comunque, dall’analisi dei dati è che il proclama dei 79 mila posti a tempo indeterminato nei primi due mesi del 2015 non corrisponde al vero. Al netto delle cessazioni di rapporto (cioè le interruzioni per licenziamento, dimissioni o altro), infatti, i contratti a tempo indeterminato sono, a gennaio, 27.119 (figura 1), mentre a febbraio, 18.584. L‘incidenza dei nuovi posti di lavoro a tempo indeterminato è dell’ 8% a gennaio e del 15% a febbraio, in media solo 13 contratti su 100 sono a tempo indeterminato. A farla da padrone sono i contratti a tempo determinato che incidono rispettivamente per l’80% e il 70%, a gennaio e febbraio a conferma che il mercato del lavoro rimane caratterizzato dalla precarietà.

attivazioni nette genfeb2015 (1)

Figura 1. Fonte: elaborazione propria su dati C.O. del Ministero del Lavoro. Clicca sull’immagine per ingrandire

Quindi la somma dei contratti netti a tempo indeterminato tra gennaio e febbraio del 2015 è di 45.703 e non di 79mila. Ancora una volta il Ministro comunica infatti solo le attivazioni e non anche quante sono state nello stesso intervallo di tempo le cessazioni contrattuali. Invece se si confronta il dato di quest’anno con quello dei primi due mesi del 2014, l’aumento delle attivazioni nette nel 2015 è di 64.637. Comunque il 18% in meno rispetto a quanto dichiarato dal ministro e ripreso su tutti Tg e giornali.

Vero invece che tra gennaio e febbraio 2014 le cessazioni di rapporti di lavoro a tempo indeterminato superavano le attivazioni e quindi nei primi due mesi del 2015 c’è stato un miglioramento. Quello che non possiamo dire con certezza, ma che si può comunque capire dai dati, è che quest’aumento di contratti a tempo indeterminato non rappresenta un eguale aumento di posti di lavoro stabili. Infatti, i contratti di collaborazione e altre tipologie di lavoro atipico diminuiscono tra i primi due mesi del 2015 e del 2014, quindi è possibile dire che l’aumento del tempo indeterminato è derivato almeno in parte da una trasformazione delle tipologie contrattuali. Per dare una descrizione certa sono necessarie informazioni riguardo la transizione di ogni lavoratore tra le diverse tipologie contrattuali, inormazioni contenute nelle banche dati amministrative non pubbliche.

Da cosa dipende questo miglioramento? Sicuramente dagli incentivi previsti in legge di stabilità che, per quanto riguarda il settore produttivo, sono le uniche novità interne all’Italia. Non sappiamo però quali settori sono interessati da queste variazioni, così come non sappiamo quale classe di età interessano questi contratti.

Tra l’altro esistono segnali di miglioramento nell’economia di altri paesi, come gli Usa, i quali trasmettono al governo quell’euforia circa la luce in fondo al tunnel della crisi. Tuttavia, anche questi dati sono ancora piuttosto esigui, come le previsioni di crescita del Pil del primo trimestre. Probabilmente non saranno usati con cautela nelle prossime dichiarazioni così come non verrà, ancora una volta, ascoltato il monito di Federico Caffé, economista italiano, che nel 1978 affermava: «una ripresa congiunturale senza minore disoccupazione è una mera indicazione statistica priva di ogni valido interesse».

Secondo i dati dell’indagine Istat, pubblicati martedi 31 marzo, il tasso di disoccupazione giovanile a febbraio torna ad aumentare dopo l’arresto di novembre e dicembre del 2014 (fig. 2). In termini assoluti, a febbraio il numero di occupati tra i 15 e i 24 anni diminuisce di 34 mila unità rispetto a gennaio, mentre aumentano di 11mila unità i disoccupati. Leggendo invece il confronto con il 2014, la situazione non migliora: in un anno il numero di giovani occupati è sceso di 40mila unità.

disoccupazione giov feb2015

Figura 2. Fonte: elaborazione propria su dati Istat. Clicca sull’immagine per ingrandire

Meno rassicurante è addirittura il tasso di disoccupazione femminile che aumenta ancora dello 0.9%, il tasso di occupazione rispetto a febbraio dello scorso anno cresce di un esiguo 0.1% in un anno, ma tutto sommato nei primi due mesi del 2015 diminuisce comunque.

Considerare la variazione dei dati per le donne è quanto mai interessante (Fig. 3) per dare un giudizio sulle scelte politiche degli ultimi anni nel contrastare uno dei fenomeni che maggiormente caratterizzano da sempre l’Italia: la scarsa partecipazione delle donne al mercato del lavoro. La figura ci mostra che tutti i proclami fatti sono rimasti tali e le politiche che li hanno accompagnati non hanno migliorato la situazione.

Figura 3. Fonte: elaborazione propria su dati Istat. Clicca sull’immagine per ingrandire

Figura 3. Fonte: elaborazione propria su dati Istat. Clicca sull’immagine per ingrandire

L’Istat, inoltre, da questa volta in poi, ha deciso di pubblicare le medie mobili in modo da “pulire” le informazioni dalle variazioni di breve termine che intercorrono all’interno dei trimestri. È una questione tecnica ma molto utile perché cattura l’andamento di breve periodo nei dati riducendo l’effetto delle oscillazioni contingenti e riducendo la possibilità di giocare politicamente con i numeri forniti ogni mese. Così sulla base di questa metodologia, spiega l’istituto di statistica:

«rispetto ai tre mesi precedenti, nel periodo dicembre-febbraio l’occupazione è rimasta sostanzialmente stabile, mentre il tasso di disoccupazione è diminuito di 0,4 punti percentuali, in larga misura per la risalita del tasso di inattività (+0,3 punti)».

Quindi, ad oggi, nessuna variazione degna di nota auspicante un positivo cambiamento di verso è stata registrata nel mercato del lavoro in Italia.

Autore
Dottoranda in economia presso SciencesPo, a Parigi. Mi interesso di political economy, economia della corruzione, disuguaglianze, lavoro e welfare. Attivista di Act! @martafana



“Buona scuola”: tutti i punti critici della riforma

Le funzioni poco chiare del ‘preside sceriffo’, la disparità tra docenti e i dubbi sulla valutazione del merito. Tante criticità dentro il disegno di legge e sono stati annunciati i primi ricorsi.


bscuola

Articolo in partnership con i quotidiani locali del gruppo Espresso.

Passerà alla storia come uno dei Ddl più rimaneggiati dell’Italia repubblicana. Quello sulla “Buona Scuola”, la riforma scolastica che dovrebbe essere una sorta di manifesto del nuovo corso renziano, vanta già innumerevoli cambiamenti in corso d’opera. Doveva ad esempio essere un decreto legge, ma si è trasformato in disegno; doveva eliminare per i docenti gli scatti di anzianità, per erogare solo ed esclusivamente aumenti di stipendio in base al “merito”, ed invece gli scatti di anzianità rimarranno. Ma il testo finale che domani inizia il suo percorso parlamentare presenta criticità e parti non chiare che rischiano di comprometterne la pretesa riformatrice.

Il “preside sceriffo”

Il centro della riforma renziana è costituito dalla figura del nuovo dirigente scolastico (il Preside, per intenderci). Secondo il DdL, sarà lui a scegliere gli insegnanti che dovranno prestare servizio della sua scuola. Il come, però, non manca di suscitare qualche dubbio. Non solo fra gli insegnanti ma anche fra gli stessi dirigenti.

Attualmente il dirigente scolastico deve limitarsi ad accettare nella sua scuola gli insegnanti che provengono dalle graduatorie. Sono i docenti che scelgono una rosa di sedi dove chiedere di entrare in ruolo, o essere trasferiti da altre cattedre precedenti, e ottenere le sedi desiderate per punteggio, stabilito sulla base dell’anzianità di servizio, e dei titoli posseduti (abilitazione per concorso, corsi di formazione riconosciuti, scuole di specializzazione), cui si aggiungono punteggi speciali (per i figli piccoli, avvicinamento alla famiglia, necessità di assistere parenti invalidi o invalidità del richiedente).

Una volta approvata la riforma, i docenti che verranno assunti a partire dal 2015, assieme a quelli già di ruolo che vorranno chiedere trasferimento o che perdano la cattedra nell’istituto in cui l’avevano precedentemente perché c’è stato un calo di iscrizioni e sono calate le classi, finiranno in un albo regionale o provinciale, in cui i dirigenti potranno liberamente scegliere chi ritengono più opportuno. Salterà quindi ogni punteggio di anzianità: i docenti verrano scelti solo in base al curriculum, che il dirigente valuterà a sua discrezione. Infatti il collegio dei docenti potrà indicare alcuni criteri base per l’individuazione degli insegnanti più adatti, ma tale organo avrà comunque funzione solo consultiva.

I trasferimenti fra gli istituti diverranno molto più complicati, da tutti i punti di vista, e addirittura improbabili quelli interprovinciali o interregionali: se oggi un docente X che voglia cambiare scuola o provincia può tentare ogni anno di fare domanda, contando sul fatto che prima o poi il suo punteggio di anzianità sarà tale da consentirgli di ottenere il trasferimento, con la riforma potrà solo restare in lista nell’albo, sperando che prima o poi un dirigente lo noti, cosa che potrebbe anche non accadere mai.

Se da un lato la riforma consentirà al dirigente di “ritagliarsi” o costruirsi una propria squadra di docenti, introduce però un forte margine di discrezionalità nella scelta: docenti con lunga anzianità di servizio potrebbero trovarsi sorpassati da colleghi più giovani; inoltre il fatto di iscriversi ad un albo regionale o provinciale e non poter più scegliere la sede in pratica non garantirà al docente neoassunto o che vuole trasferirsi di ottenere una sede per lui comoda, o di finire mai nella scuola desiderata.
I docenti così assunti, inoltre, avranno un contratto per tre anni, rinnovabile. Non è chiaro cosa succeda però se il contratto triennale non verrà rinnovato allo scadere del termine: rientreranno negli albi provinciali e dovranno sperare che un’altra scuola li chiami? E se non ci fossero più cattedre libere per la loro materia quell’anno o in quelli successivi? E se alla fine nessuna scuola li chiamasse e loro fossero già di ruolo, dove e come verranno impiegati?

Ugualmente non chiaro è come avverranno le selezioni: il dirigente dovrebbe considerare i curricoli di tutti i presenti in graduatoria, ed eventualmente sottoporli ad un colloquio. Ma contando che le graduatorie potranno essere formate anche dai centinaia di nomi per ogni classe di concorso, sostenere decine o addirittura centinaia di colloqui potrebbe costringere i dirigenti a sospendere ogni altra attività per mesi, senza contare poi i problemi legali che scaturirebbero per eventuali ricorsi degli scartati. La scelta poi del docente potrebbe risultare macchinosa: ora, siccome è il docente a far domanda per le varie scuole e metterle in ordine di preferenza, la scelta avviene automaticamente e il docente non può poi rifiutare la scuola in cui viene assegnato. Ma con gli insegnanti iscritti ad un albo, la faccenda cambia: il Dirigente dell’istituto X, infatti, potrebbe, a seguito della lettura del curriculum, scegliere come suo candidato ideale il professor Rossi, ma il professor Rossi potrebbe a quel punto declinare perché ha già accettato l’offerta del Dirigente Scolastico dell’istituto Y, che gli piace di più o gli è più comodo. Al che il povero Dirigente X si troverebbe di nuovo con la cattedra scoperta e dovrebbe in fretta e furia ripiegare su un docente che non è di sua scelta, ma è l’unico rimasto disponibile.

Si rischia di creare una disparità fra insegnati: infatti quelli assunti prima del 2015 ed entrati in ruolo, se non chiedono trasferimento o cambio di cattedra, potranno mantenere la titolarità nell’istituto in cui sono: tutti gli altri no, potrebbero trovarsi a diventare docenti “nomadi” costretti a cambiare sede ogni tre anni.

L’organico funzionale

Il dirigente dovrà predisporre un piano triennale in cui prevede il numero di docenti di cui avrà bisogno nella sua scuola, e che entreranno nell’organico funzionale, i cui compiti però nel decreto risultano piuttosto vaghi. L’idea è che dovrà aiutare a tamponare le assenze degli insegnanti delle classi, anche se non è bene chiaro come. Per le supplenze brevi, infatti, fino a 10 giorni, è previsto che debbano essere coperte con personale interno, anche senza tener conto del grado di scuola di appartenenza. Il che vuol dire che in un istituto comprensivo con materne, elementari e medie, in caso di assenza del professore di matematica alle medie il collega maestro alle elementari o alla materna potrebbe essere mandato in classe a fare supplenza, e viceversa. Non è ben chiaro come una maestra elementare di italiano potrebbe coprire per una decina di giorni le ore di un professore di tecnica delle medie, se non limitandosi a sorvegliare la classe, senza però garantire ore effettive di lezione, né quale qualità potrebbe garantire un professore di matematica mandato a supplire una insegnante della materna e del tutto ignaro di come si lavora con bambini di quattro anni.

Per le supplenze più lunghe non appare semplice determinare come si potrà fare. Il dirigente, infatti, per quanto accorto, non può prevedere nel 2015, all’atto di fare il piano triennale, che nel 2017 l’insegnante di musica andrà in maternità o quello di arte dovrà rimanere assente per due mesi per motivi di salute; a meno che nell’organico funzionale, per puro caso, non abbia previsto di assumere un collega di tecnica o di musica che sarà però già oberato di altri mille incarichi, non si capisce come potrà evitare di chiamare un supplente temporaneo. Il fatto che le scuole potranno consorziarsi in rete non garantisce nulla: infatti il docente di tecnica in servizio nella scuola A avrà comunque già una serie di ore in quella, e anche se chiamato dalla scuola B per supplire un assente, non è detto che riesca a farlo incastrando le ore con quelle che già ha occupate.

Chi fa parte dell’organico funzionale dovrebbe anche servire ad ampliare l’offerta formativa con corsi di potenziamento. Anche qui non è chiaro se in ore curriculari o extra, e che fine farebbero i corsi nel caso in cui il docente debba essere improvvisamente impiegato per supplire colleghi assenti per lunghi periodi.

Ancora più problematica è la facoltà data ai dirigenti di affidare gli insegnamenti di alcune materie a docenti che abbiano l’abilitazione per “materie affini”: visto che uno dei punti fondamentali della riforma era l’idea che solo chi ha superato il concorso pubblico può entrare in ruolo, come può poi un dirigente assegnare ad un docente l’insegnamento di una materia per cui non ha vinto il concorso, solo perché “affine”? Il Ddl prevede inoltre che il dirigente possa contattare e offrire di far parte dell’organico funzionale anche a insegnanti di ruolo in altre scuole. Anche qua non è ben chiaro come: con un part time? O cercando di convincerli a trasferirsi nel suo istituto? E se sì, con quali mezzi? È ovvio che non potrà offrire apertamente, come per esempio, si fa nel privato, maggiorazioni stipendiali. E allora, come? Il rischio è che nasca un vero far west, con Dirigenti che fanno promesse a docenti che “interessano” o riservano loro trattamenti di favore, mentre gli altri sono lasciati al palo.

Il problema del merito

L’altro cardine della riforma è che gli insegnanti saranno valutati in base al “merito”. Concetto molto affascinante, ma che non è chiaro a che cosa corrisponda e in che modo sarà possibile valutare. Come è già stato fatto notare da alcuni esperti, la riforma renziana è infatti carente dal punto di vista della didattica: non ci sono chiare indicazioni di cosa o come si dovrebbe insegnare efficacemente. Il merito degli insegnanti dovrebbe consistere soprattutto nella loro capacità di insegnare bene: ma per ora gli unici mezzi a disposizione sono i test invalsi, che però coprono soltanto matematica e italiano, e un sistema di valutazione di istituto che è tutto da costruire.

In mancanza di altro, il merito degli insegnanti pare ridursi alla loro disponibilità a svolgere compiti extra a scuola, come collaboratori del dirigente o per corsi pomeridiani di potenziamento o recupero.
Pare che saranno anche rese obbligatorie 50 ore l’anno non retribuite di formazione per i docenti. Ma anche qua, non essendo chiaro come saranno organizzate e su cosa dovrebbe vertere l’aggiornamento, non è dato sapere se avranno delle ricadute pratiche reali, e il rischio è che fioriscano una serie di corsi di dubbio valore offerti agli istituti o peggio proposti ai docenti che se li dovranno pagare di tasca propria per assolvere agli obblighi di legge.

Ogni docente inoltre potrà godere di un bonus di 500 euro per i consumi culturali. Anche qua non è chiaro né come verranno erogati né in base a quali criteri o pezze giustificative saranno dati i rimborsi.
Dubbi anche sulla quantità degli aumenti in busta paga legati al merito: i calcoli variano di molto: se si deciderà di premiare una ristretta rosa di pochi collaboratori del dirigente si potrebbe anche arrivare all’aumento di qualche centinaio di euro per i docenti “prescelti”, che però saranno uno o due per istituto; se invece si vorrà allargare a tutti, gli aumenti rischiano di ridursi ad una sessantina o addirittura una ventina di euro al mese in più dopo tre anni in cui si è dovuto fare di tutto e di più. Pochi per giustificare un impegno così gravoso come quello richiesto.

La riforma così impostata, inoltre, è già a forte rischio ricorsi: qualche anno fa la Corte Costituzionale, per esempio, bocciò una legge regionale della Lombardia che voleva dare ai dirigenti la potestà di scegliere i docenti. Sindacati ed associazioni hanno già annunciato ricorsi in base a questa sentenza, oltre a quelli che promettono tutti coloro che dovessero venire “scartati” alle selezioni dai Dirigenti. Si rischia insomma che le aule in cui più si discuterà della riforma renziana non siano quelle scolastiche, ma quelle di tribunale.




Europe vs Facebook: il Datagate alla Corte di Giustizia Europea

‘Se non volete essere spiati dagli Usa, chiudete i vostri account Facebook, perché la Commissione europea non può garantire la privacy’.


 Facebook Tips for High Organic Reach

Il 24 marzo 2015 si è tenuta dinanzi alla Grande Camera della Corte di Giustizia europea la prima udienza della causa C-362-14, ovvero Maximilian Schrems contro DPC (Data Protection Commissioner) dell’Irlanda.
La questione della quale si dovrà occupare la Corte europea è la seguente: l’Autorità per la protezione dei dati personali irlandese, in presenza di una denuncia di un cittadino in relazione al trasferimento dei suoi dati personali negli Usa il cui diritto si sostiene non provveda adeguate tutele, è vincolata dalla procedura prevista dal Safe Harbor, sulla base della valutazione della Commissione europea del 26 luglio 2000, oppure in alternativa debba condurre una sua propria indagine alla luce dei recenti sviluppi?

Si tratta di una questione che avrà profonde conseguenze nei rapporti tra Europa e Usa. Ma per comprenderla bene dobbiamo partire da lontano.

Europe Vs Facebook
È il settembre del 2011 quando lo studente austriaco Maximilian Schrems chiede a Facebook l’ostensione dei suoi dati che il social in blu mantiene e tratta. Quindi invia una richiesta, come previsto dalla normativa europea, utilizzando il modulo predisposto da Facebook.
Alla prima richiesta Facebook rifiuta la completa ostensione giustificandosi perché i dati erano considerati: “trade secret or intellectual property of Facebook Ireland Limited or its licensors”. Schrems insiste, e rimane allibito quando si vede recapitare, sotto forma di cd, oltre 1200 pagine in formato A4 contenenti tutto ciò che Facebook aveva conservato su di lui in 3 anni di frequentazione online. Un po’ troppo per un sito che sosteneva di conservare i dati per non oltre 90 giorni!
Inoltre, secondo Schrems alcuni di quei dati erano stati da lui cancellati, ma permanevano comunque tra quelli trattati da Facebook, evidenziando una chiara violazione delle norme in materia di privacy.

Schrems presenta 22 ricorsi per violazione della privacy al Garante competente su Facebook, il DPC (Data Protection Commissioner) dell’Irlanda (la sede europea di Facebook è in Irlanda a causa del regime fiscale decisamente più favorevole per le aziende).
A seguito dell’indagine, durata due mesi, il Garante per la privacy irlandese emette un rapporto finale nel quale predispone alcune raccomandazioni alla quali Facebook dovrà adeguarsi per essere in regola con la normativa europea, in particolare limitando il trattamento dei dati degli utenti in assenza di consenso, consentendo la cancellazione definitiva dei dati, compreso i profili inattivi.

La risposta del DPC appare insufficiente e tesa a minimizzare le gravi violazioni, ma le denunce del giovane studente austriaco ricevono un’eco inaspettata quando nel 2012 il Commissario europeo Viviane Reding cita il suo caso per illustrare la predisponenda riforma europea in materia di tutela dei dati personali.

La guerra personale di Max Schrems diventa, quindi, il paradigma della lotta degli utenti contro le multinazionali, una battaglia che però dovrebbe essere interesse di tutti, anche se i governi sono sempre piuttosto recalcitranti a prendere le parti dei cittadini preferendo non scontrarsi contro aziende che portano miliardi di investimenti. Anzi, talvolta ne prendono le difese più o meno apertamente.
La battaglia di Schrems si trasfonde fin da subito in un gruppo di pressione denominato emblematicamente Europe Vs Facebook (EvF), nel quale lavorano anche diversi giovani studenti di legge (come Schrems) e che porta avanti una serie di iniziative. Dobbiamo anche a questo gruppo, infatti, la mancata introduzione del riconoscimento facciale su Facebook, possibile negli Usa ma non consentito in Europa.

PRISM
Nel giugno del 2013, le rivelazioni di Snowden su Prism mostrano all’opinione pubblica mondiale come l’NSA ha intercettato e raccolto enormi quantità di dati degli utenti trattati delle grandi aziende tecnologiche americane (come Facebook, Google, Microsoft, Apple, ecc…). La raccolta di questi dati, secondo alcuni, sarebbe in violazione dell’accordo “Safe Harbor” che regolamenta il trasferimento di dati dall’Europa agli Usa da parte dei provider statunitensi.
La normativa europea (direttiva 46/95 art. 25) non consente il trattamento dei dati dei cittadini europei da parte di aziende che operano sotto la giurisdizione di paesi con norme non equivalenti (cioè con tutela inferiore per i diritti dei cittadini) a quelle europee.
Il Safe Harbor è un accordo risalente al 2000, al quale aderiscono aziende americane che dichiarano di rispettare standard di tutela dei dati personali equivalenti a quelli europei, in tal modo anche aziende che operano secondo normative meno tutelanti per la privacy (come quella americana) possono fare affari in Europa trattando dati dei cittadini europei.

L’adesione al Safe Harbor avviene a seguito di autocertificazione da parte dell’azienda di rispettare determinati requisiti, anche se vi è un controllo annuale della Federal Trade Commission. Le aziende possono però anche procedere con l’autovalutazione interna (in-house) o appaltarla ad aziende esterne. Facebook procede con la verifica in-house. Inoltre il SH non prevede sanzioni ma rimedi, cioè prevede solo che sia imposto all’azienda di adeguarsi.

A seguito delle rivelazioni di Snowden l’accordo Safe Harbor ha ricevuto numerose critiche anche dalle istituzioni europee, al punto che la Commissione LIBE chiese la sospensione dell’accordo per quelle aziende che procedono tramite autocertificazione, la qual cosa sarebbe disastrosa per le aziende americane. E, addirittura, nel marzo 2014 il Parlamento europeo ha approvato modifiche restrittive al trasferimento dei dati verso paesi terzi (modifiche che dovranno essere approvate dal Consiglio d’Europa). Lo stesso Cancelliere tedesco, Angela Merkel, ha espresso forti preoccupazioni sul funzionamento del Safe Harbor.

Safe Harbour

Schema funzionamento Safe Harbour

Il gruppo EvF presenta una nuova istanza al DPC irlandese, ipotizzando che Facebook (ovviamente la medesima azione avrebbe potuto essere avviata contro una qualunque azienda tecnologica americana con sede in Irlanda che aderisce al sistema PRISM, come Apple per esempio) avesse trasferito dati dei cittadini europei al di fuori dell’Unione in violazione dell’accordo Safe Harbor.
In particolare il trasferimento sarebbe illegittimo in quanto i cittadini europei non avevano consapevolezza del trasferimento di massa dei loro dati nell’ambito del sistema PRISM, e quindi qualunque consenso al trasferimento verso gli Usa risulta viziato, e i dati sarebbero eccedenti rispetto allo scopo, in violazione dell’art. 6 della direttiva 46/95.

Chiede quindi di aprire un’indagine, ma il DPC rifiuta, definendo l’azione “frivola e vessatoria”!
Secondo il DPC, infatti, la legittimità del comportamento di Facebook è garantito dall’adesione al Safe Harbor, il quale è stato ritenuto valido dalla Commissione europea al fine di autorizzare il trasferimento di dati verso gli Usa, e quindi non c’è spazio per un’indagine del DPC.
Ma EvF non demorde, e impugna la decisione del Garante rivolgendosi all’Alta Corte irlandese, la quale ribalta la decisione del DPC.
Il Giudice Hogan ritiene che, sulla base delle rivelazioni di Snowden, le prove suggeriscano che i dati personali raccolti da Facebook in Europa vengono controllati in massa e su base indistinta dalle autorità americane, e anche se Schrems non ha una prova definitiva che il Safe Harbor è stato violato, egli è però nel suo pieno diritto di opporsi al trasferimento dei suoi dati verso un paese (gli Usa) la cui tutela dei diritti dei cittadini è sicuramente inferiore a quella garantita dalle norme europee.

Corte di Giustizia dell’Unione europea
Anzi, poiché le questioni sollevate dall’Evf (che nel frattempo ha iniziato 5 azioni -contro Apple, Skype, Microsoft e Yahoo- in tre paesi differenti) sono di rilievo per tutta l’Unione Europea, l’Alta Corte irlandese rinvia la causa alla Corte di Giustizia dell’Unione europea (CGUE).
La domanda alla quale dovrà rispondere la Corte europea è: l’Autorità per la protezione dei dati personali irlandese è vincolata dalla procedura prevista dal Safe Harbor, sulla base della valutazione della Commissione europea di 15 anni fa e che autorizza il trasferimento dei dati sulla base di una autocertificazione, oppure può condurre una sua propria indagine alla luce delle nuove evidenze fattuali (scandalo PRISM) emerse nel frattempo?

Insomma, il DPC deve fare finta di nulla (ignorando anche le modifiche normative avvenute negli Usa a seguito della lotta al terrorismo -Patriot Act- che hanno consentito nuovi e più penetranti poteri da parte del governo americano), oppure lo scandalo delle intercettazioni dell’NSA deve portare ad una nuova valutazione della protezione dei dati che offre gli Usa? Specialmente in considerazione del fatto che dopo l’istituzione del Safe Harbor è entrato in vigore l’art. 8 della Carta dei diritti fondamentali dell’Unione europea:

Protezione dei dati di carattere personale: 1. Ogni individuo ha diritto alla protezione dei dati di carattere personale che lo riguardano. 2. Tali dati devono essere trattati secondo il principio di lealtà, per finalità determinate e in base al consenso della persona interessata o a un altro fondamento legittimo previsto dalla legge. Ogni individuo ha il diritto di accedere ai dati raccolti che lo riguardano e di ottenerne la rettifica. 3. Il rispetto di tali regole è soggetto al controllo di un’autorità indipendente.

In questa prospettiva bisogna tenere presente che di recente proprio la Corte europea, con la sentenza dell’8 aprile 2014, ha posto un chiaro monito contro la sorveglianza digitale di massa, invalidando la direttiva europea sulla Data Retention in quanto ritenuta sproporzionata rispetto al suo scopo, che è quello della lotta alla criminalità e quindi la tutela della pubblica sicurezza (cioè il medesimo scopo del sistema PRISM).

La CGUE dichiara illegittimo qualsiasi trattamento generalizzato o indifferenziato, cioè non mirato. La raccolta è la conservazione dei dati personali richiede una differenziazione modulata rispetto al tipo di reato, al tipo di dato e di mezzo di comunicazione, occorre una relazione specifica tra i dati da conservare e la minaccia alla sicurezza pubblica, ed in particolare la conservazione va ristretta sia temporalmente, sia in relazione agli individui coinvolti. Ed infine occorre il rispetto di garanzie essenziali quali l’autorizzazione di un’autorità giudiziaria o di un ente amministrativo indipendente. In breve, il sistema PRISM dell’NSA è proprio il tipo di raccolta di dati che la CGUE considera illegittimo.

Il 24 marzo del 2015 si è tenuta l’udienza preliminare dinanzi alla Corte di Giustizia europea, nella quale Bernhard Schima, consigliere della Commissione europea, ha dovuto ammettere che con l’attuale normativa la Commissione non può garantire il diritto fondamentale dei cittadini europei alla privacy quando i dati vengono trasferiti negli Stati Uniti. Gli Usa non hanno alcun obbligo di soddisfare gli standard europei (più elevati) in tema di privacy, e l’Europa non ha alcun mezzo giuridico per ottenere ciò.
La conclusione è stata lapidaria:

se non volete essere spiati chiudete i vostri account Facebook.

L’avvocato generale Bot consegnerà la sua opinione il 24 giugno.

Ovviamente la CGUE non è chiamata a decidere sulla legittimità del sistema PRISM, né potrebbe farlo, e neppure sulle azioni delle aziende tecnologiche americane, ma è evidente che questa decisione influirà politicamente sulla riforma della normativa in materia di tutela dei dati personali in preparazione, nonché sui rapporti commerciali e diplomatici tra UE e gli Usa, compreso le negoziazioni per il trattato transatlantico (TTIP).

Autore
Avvocato e blogger. Mi interesso di diritto applicato ad internet e alle nuove tecnologie di comunicazione. @brunosaetta



La ricerca inesistente su social network e solitudine

Un articolo di Repubblica parla di isolamento (causa anche di mortalità) dovuto ai social network, citando i risultati di un ricerca americana. Peccato però che lo studio non parli affatto dei social network intesi come Facebook o Twitter, ma come reti sociali reali, in carne ed ossa.


pic vb

Ha collaborato Angelo Romano

 

Cent’anni di solitudine. È il titolo del più famoso romanzo di Gabriel Garcia Marquez. Ma è anche una malattia della nostra era, forse “la” malattia del ventunesimo secolo: il secolo della rivoluzione digitale, degli smartphone, dei social network, delle chat, dei messaggini, di Instagram, dei videogames giocati in collettivo online, cioè di tutto quello che ci dà la sensazione di essere in contatto con il prossimo ma che di fatto contribuisce a isolarci nel chiuso delle nostre case, delle nostre vite.

Così si apre l’articolo, apparso su La Repubblica di sabato 14 marzo, intitolato Cent’anni di solitudine, nell’era dei social network non abbiamo più amici. L’autore, Enrico Franceschini, commenta le conclusioni di uno studio pubblicato su Perspectives on Psychological Science, una pubblicazione peer-reviewed della Association for Psychological Science, che nell’ultimo numero presenta una sezione speciale dedicata al tema della solitudine. Lo studio consiste in una serie di articoli in cui gli autori illustrano una sintesi delle conoscenze scientifiche sull’argomento. Dall’isolamento come comportamento adattativo, non solo nell’evoluzione dell’uomo ma anche di altre specie, alle sue possibili basi genetiche, fino alle conseguenze della vita solitaria sulla salute. Nelle conclusioni della review intitolata Solitudine e isolamento sociale come fattori di rischio per la mortalità, gli autori scrivono che «Il rischio associato con l’isolamento sociale e la solitudine è comparabile con consolidati fattori di rischio per la mortalità», tra cui l’obesità, l’abuso di sostanze stupefacenti, la salute mentale, la qualità ambientale, l’accesso all’assistenza sanitaria. E aggiungono che «le evidenze attuali indicano che l’aumentato rischio per la mortalità derivante da una mancanza di relazioni sociali è maggiore di quello dato dall’obesità».

Ed è ciò che riporta anche l’articolo di Repubblica. «La solitudine rappresenta una minaccia alla salute simile all’obesità», si legge nel pezzo. Ma già dal titolo e dall’attacco appare chiaro come Repubblica voglia spostare l’attenzione su qualcosa di completamente diverso, ovvero i social media:

Cioè di tutto quello che ci dà la sensazione di essere in contatto con il prossimo ma che di fatto contribuisce a isolarci nel chiuso delle nostre case, delle nostre vite. Passiamo sempre più tempo in compagnia di presunti amici o di perfetti sconosciuti nella realtà virtuale e di fatto sempre più tempo da soli nella nostra esistenza reale. Questo era un fatto noto. Sapevamo o perlomeno sospettavamo che fosse un malessere sociale. Adesso sappiamo che è una vera e propria malattia.

Ma da quale elemento Enrico Franceschini ritiene di poter dedurre, già in apertura del suo articolo, che l’isolamento di cui parla lo studio sia provocato da Facebook, Twitter e Instagram e che siamo di fronte, addirittura, a «una vera e propria malattia»? Non certo da una lettura della review Solitudine e isolamento sociale come fattori di rischio per la mortalità, dato che questa, così come le altre, non contiene un solo accenno ai social media o al loro utilizzo, come causa di solitudine o isolamento sociale volontario. Le uniche social networks citate sono le reti sociali delle conoscenze e dei contatti umani, misura, appunto, della condizione di solitudine o isolamento di un individuo.

L’unico riferimento ai social media è contenuto nell’introduzione della sezione speciale del numero di Perspectives on Psychological Science :

Queste tendenze si inseriscono in uno zeitgeist culturale che venera i social media, ma la scienza non ha ancora sviluppato un chiaro consenso sugli effetti della nostra iperconnessa esistenza elettronica sulle nostre relazioni sociali nella vita reale e, peraltro, se questi cambiamenti abbiano una rilevanza diretta sul benessere psicologico e/o la salute fisica.

Un’affermazione che da sola smonta titolo, introduzione e tesi dell’articolo di Repubblica.

Franceschini cita «il Times e altri giornali britannici» ed è da queste uniche fonti che trae le sue informazioni. Tuttavia nemmeno il Times parla di social media. Dall’articolo pubblicato dal quotidiano britannico Franceschini cita le parole di uno degli autori dello studio, Tim Smith:

«Stiamo vivendo al più alto tasso di solitudine della storia umana ed è un dato che si riscontra in tutto il pianeta».

Per la precisione, l’affermazione attribuita a Tim Smith, così come riportata dal Times è:

Non solo siamo al più alto tasso registrato di vita solitaria in tutto il secolo, ma siamo ai massimi tassi registrati sul pianeta . Con la solitudine in aumento, prevediamo una possibile epidemia in futuro.

Ma Franceschini scrive:

Il mondo dell’era digitale, precisa [Tim Smith] è di fronte a una vera propria “epidemia” di solitudine.

Eppure, come si può leggere dalla citazione sopra riportata, nell’articolo del Times Tim Smith non «precisa» nulla sul «mondo dell’era digitale» e non pronuncia queste parole.

Franceschini parla di elettronica e digitale anche in un passaggio sull’obesità, uno dei fattori di rischio per la salute che, come abbiamo visto, gli autori dello studio mettono a confronto con i rischi correlati alla solitudine e all’isolamento. «Per certi versi, le due malattie vanno a braccetto: mangiamo troppo e stiamo troppo soli», scrive il giornalista di Repubblica. E perché stiamo troppo soli?

Difficile non immaginare un adolescente che ingurgita fast food chiuso nella sua stanza collegato a un computer o a un tablet o a uno smartphone o a tutti e tre gli strumenti contemporaneamente.

Ora, non sapremmo dire quanto sia più o meno difficile immaginare questo scenario, quel che è certo è che gli autori della review su solitudine, isolamento e mortalità non parlano di correlazioni statistiche tra hamburger e adolescenti connessi a uno o più dispositivi elettronici.

Tutto l’articolo di Repubblica, dunque, si fonda su una argomentazione fallace per cui, poiché stiamo vivendo in un momento in cui si registra un elevato tasso di solitudine e isolamento e questo momento storico coincide con l’era digitale, dunque la responsabilità va attribuita ai social media.

E in questo contesto l’identificazione del XXI secolo come «il secolo della rivoluzione digitale, degli smartphone, dei social network» (addirittura dei «messaggini», benché fossero ormai di uso comune già alla fine degli anni ’90) e il continuo e insistente riferimento ai social media e all’«era digitale», a partire dal titolo, risultano scorretti e ingannevoli perché inducono il lettore a pensare che gli autori dello studio abbiano individuato una correlazione o, addirittura, un rapporto di causa-effetto tra un aumentato rischio per la mortalità e l’utilizzo dei social media, invece che la solitudine e l’isolamento sociale, qualsiasi siano le loro motivazioni.

Nel tentativo di dare sostegno a quanto argomentato al suo interno, l’articolo è accompagnato da una infografica che mostra i dati relativi alle attività svolte da 3 milioni di statunitensi nel tempo libero, quasi a voler costruire un’associazione tra isolamento sociale e cambiamento degli stili di vita: su 5 ore medie giornaliere dedicate al tempo libero, più della metà viene trascorsa guardando la tv, il 4% davanti a un computer. Quest’ultimo dato viene evidenziato in rosso: rispetto al 2009 si trascorrono in media 3 minuti in più davanti a un computer (13 minuti invece di 10).

Ma se nella ricerca citata si fa riferimento all’aumento dei tassi di mortalità associati a obesità e solitudine, non v’è traccia, invece, dei dati sul tempo libero. Da dove saltano fuori? Sono stati estrapolati da un saggio di Scott Wallsten intitolato Cosa non stiamo facendo quando siamo on line?, ospitato sul sito del National Bureau of Economics, citato su Repubblica come fonte dell’infografica. Ma questo documento non ha a che vedere né con i rischi dell’isolamento sociale né con la solitudine dell’era digitale. Non intende dimostrare che più tempo trascorriamo davanti a un computer, più siamo soli. Al limite, cerca di capire cosa non facciamo quando siamo on line. I dati utilizzati, inoltre, non sono stati elaborati dal National Bureau of Economics e non sono nemmeno i più recenti. La loro fonte è la ricerca American Time Use Survey, che lo United States Department of Labor svolge da diversi anni.

Ci si chiede come dei dati sull’attività svolta da 3 milioni di statunitensi possano essere generalizzati per parlare di solitudine in tutto il «mondo dell’era digitale». I comportamenti di una piccolissima parte di abitanti di una sola nazione, gli Stati Uniti, svolti in una particolare fascia giornaliera (5 ore su 24), diventano la misura del comportamento di tutti, almeno in Occidente.

Nella articolo di spalla sulla stessa pagina di Repubblica, a firma di Elena Stancanelli, la minaccia di una epidemia di solitudine da social media diventa incombente:

La prossima epidemia mortale che dovremmo affrontare sarà la solitudine. Gli uomini e le donne che verrano avranno il cuore spaccato da quel sentimento notissimo, che finora curavamo con l’amore, l’amicizia, il sesso, il cibo, i libri. Non basteranno più, sembra. […] Abbiamo inventato social in cui accumulare amici, o chat nelle quali incontrare più gente possibile.

In uno scambio su Twitter con Antonio Casilli, professore associato presso la Télécom ParisTech, Franceschini ha risposto così:




Il copyright, Napster, la cultura del Vietnam e l’Internet che verrà

Dalla battaglia sul diritto d’autore nascerà l’Internet del futuro: saremo tutti potenziali criminali o tutti potenziali artisti?


Buno vb

Guerra per il copyright
La guerra per il copyright, una guerra fredda che si combatte nelle oscure stanze del potere, in una quasi totale assenza di trasparenza, attraverso trattati commerciali e revisioni di direttive europee, è probabilmente la guerra più importante del secolo. La guerra per il copyright, infatti, disegnerà il futuro di internet, come sarà e come influirà sulle vite di milioni di cittadini europei e non solo. Più che sulla libertà di espressione, la guerra per il copyright è innanzitutto guerra sulla libertà di comunicazione privata, sulla possibilità di dialogo anche anonimo, sulla possibilità per i giornalisti di tutelare le proprie fonti, sulla possibilità delle persone (immaginiamo chi ha gravi problemi familiari e cerca un aiuto, un consulto…) di parlare anche di cose che un giorno potrebbero essere usate contro di loro.

Attualmente è allo studio la revisione della normativa sul copyright in ambito europeo, e si può già notare la polarizzazione su due posizioni estreme, due visioni antitetiche, due modi di intendere l’internet del futuro.

Napster
Ma per comprendere cosa è davvero in gioco occorre tornare indietro nel tempo.
Siamo nel 2001 quando inizia il processo a Napster, nel corso del quale accadono due cose. Subito dopo lo shut down dei server, a seguito della condanna (i legali di Napster sostennero che il software era in grado di bloccare il 99,4% dei file illeciti, ma il tribunale disse che il 99,4% era troppo poco, occorreva bloccarli tutti) e il conseguente fallimento dell’azienda, nonostante la chiusura dei server il software Napster continuava a vivere. Era stato impiantato su server non sotto il controllo dell’azienda.

Utenti di Napster

Utenti di Napster

Il secondo evento fu il tentativo di Thomas Middelhoff, Ceo della Bertelsmann (BMG), di realizzare un modello di business diverso cioè un servizio di distribuzione digitale in abbonamento, sfruttando proprio Napster. Il tentativo fallì per il rifiuto da parte della restante industria del copyright di cooperare.

Questi due eventi sono strettamente connessi. Middelhoff sottolineò già all’epoca che il modello di business dell’industria del copyright non funzionava più, ma nessuno lo aveva capito o voleva capirlo.
L’industria del copyright, nonostante sostenesse di essere tollerante con gli utenti downloader e di prendersela solo con gli uploader, in realtà citò in giudizio circa 18mila persone, chiedendo una media di 4000 dollari a persona, così criminalizzando un’intera generazione (Lessig paragonò tutto ciò alla cultura del Vietnam). Caso eclatante fu quello di Jammie Thomas citata per 1,92 milioni di dollari.
L’industria musicale preferì, quindi, scontrarsi con i suoi stessi utenti, contrastando la loro capacità di avere consapevolezza del mondo intorno, distruggendo dalle fondamenta le spinte sociali degli individui alla condivisione delle idee e delle informazioni, e quindi criminalizzando l’intera società nella sua fase evolutiva.
La conseguenza immediata di quella guerra di “religione” fu che moltissime persone smisero di comprare musica per motivi ideologici. L’industria del copyright già se la passava male, e il settore della musica cominciò a perdere soldi. Numerosi furono i licenziamenti.

Con l’avvento di internet si creò subito una domanda di beni digitali, in primis musica, domanda alla quale non corrispose per anni nessuna offerta legale. E, in assenza di offerta legale, l’offerta che venne fu quella illegale. Ecco perché nacque Napster ed ecco perché quando morì Napster, il software era più vivo che mai.
Poiché per anni l’industria del copyright si era rifiutata di accostarsi semplicemente all’ambiente digitale, preferendo ritirarsi nel suo modello di business antiquato, quel vuoto fu progressivamente riempito da altri soggetti. Prima venne Napster e i suoi fratelli (Kazaa, Grokster, ecc…), poi Steve Jobs con iTunes, per il quale assunse anche dei programmatori di Napster, la cui interfaccia era piuttosto simile. La Apple colmò quello spazio vuoto con un’offerta legale.
L’industria musicale accolse con sufficiente favore l’ingresso del nuovo venuto, perché da un lato era impreparata all’uso delle nuove tecnologie, ma dall’altro si ritrovava a dialogare con un solo rivenditore, una sorta di nuovo monopolio che gli dava la garanzia di poter mantenere il controllo sulla musica.

La situazione non mutò con l’avvento di nuovi servizi di distribuzione digitale e di streaming, come Spotify, Pandora, ecc… In realtà, al di là della questione della sostenibilità di questo sistema, il problema rimaneva lo stesso. Il modello di distribuzione di fatto rimaneva lo stesso.

Modello unidirezionale
Il modello di business dell’industria del copyright si estrinseca in un canale lineare, unidirezionale, che va dagli artisti, che creano, agli editori-distributori, fino al pubblico. La caratteristica saliente di questo modello è che il vero cliente dell’artista non è il pubblico, bensì lo stesso editore.
È l’editore, infatti, che decide se un’opera è commercialmente valida, quindi economicamente sostenibile, è l’editore che decide se un’opera incontrerà il favore del pubblico e quindi stabilisce se produrla o meno, è l’editore quindi che decide vita e morte delle opere.
È impossibile quantificare il numero di opere mai realmente nate, mai distribuite, morte nella culla, perché l’industria riteneva che non fossero sostenibili e quindi commercialmente non valide, è impossibile quantificare la perdita per la cultura. Perché, occorre ricordarlo ogni volta, un’opera creativa non può essere valutata solo per il suo valore commerciale, in quanto ha anche un valore non commerciale, culturale, e la cultura va diffusa e condivisa, se no si inaridisce.

Non solo. Con il progressivo incremento dei termini temporali di tutela del copyright (dai 14 anni iniziali, passando per i 30 dell’epoca della Disney, ai 40, poi 50, infine agli attuali 70 più la vita dell’autore per un totale di circa 120 anni), il pubblico dominio si è sostanzialmente svuotato, e mentre la Disney poté accedere, tra il 1970 e il ’78, ad opere dello stesso secolo, riutilizzando quindi opera ancora attuali (come se noi oggi potessimo riutilizzare opere dei Beatles e dei Doors), noi oggi dobbiamo tornare indietro di un lasso di tempo eccessivo, rimestando tra opere non più attuali.
Qui è forse più facile stabilire quante opere entrano nel pubblico dominio con notevole ritardo, ritardo imposto dalle leggi pretese dall’industria del copyright, ma sono opere che finiscono per essere dimenticate prima che esse siano disponibili. Perché è un dato di fatto che le opere che mantengono un valore commerciale per un periodo di 70 anni più la vita dell’autore sono una percentuale bassissima. Per proteggere il valore di queste opere, la stragrande maggioranza delle opere, che invece perde valore commerciale in un periodo tra i 15 e i 30 anni, finiscono nel dimenticatoio.

Tornando al modello di business, l’ingresso di soggetti quali iTunes, Spotify, Pandora, ecc…, non cambia la situazione perché inserisce solo un ulteriore soggetto in più tra l’industria e il pubblico, allungando la catena di distribuzione unidirezionale. I profitti di questo ulteriore soggetto sono drenati agli artisti, non certo all’industria che mantiene saldamente nelle sue mani le licenze.

Il modello rimane sempre lo stesso a dispetto delle nuove tecnologie che consentirebbero nuove forme di business, disintermediando il rapporto tra artisti e pubblico. Con internet per la prima volta l’artista può dialogare direttamente col suo pubblico, scrivere libri a puntate recependo il feedback dei propri lettori, distribuire le proprie opere direttamente online mantenendo a sé tutti i guadagni (i Dispatch ebbero un notevole successo, pur essendo indipendenti e quindi non avendo alcuna copertura pubblicitaria radio o di altro tipo, grazie alla distruzione delle loro opere su Napster, giungendo a suonare al Madison Square Garden nel luglio del 2007).
La disintermediazione non è prerogativa esclusiva delle opere dal basso costo, ma è applicabile anche alle opere più costose quali i videogame (a differenza di un film che presenta una sola storia lineare, un videogame deve presentare necessariamente più storie alternative e quindi può risultare più costoso anche di un film), laddove già oggi dei videogame sono stati finanziati rivolgendosi direttamente ai potenziali acquirenti tramite sistemi di crowdfunding.

La caratteristica di questo modello di business del tutto nuovo è, però, l’eliminazione degli intermediari, quindi la perdita di potere (e guadagni) da parte dell’industria del copyright. Ovvio che l’industria cerchi di ritardare il più possibile un evento del genere, sfruttando al massimo sistemi di distribuzione quali i servizi di streaming che di fatto sono principalmente uno specchietto per le allodole (essendo, a torto, considerati come qualcosa di separato dall’industria, notoriamente non ben vista, sono più apprezzati, quasi novelli Robin Hood che danno la musica a basso prezzo).

La creazione di un nuovo livello di intermediazione non è positivo per gli artisti, visto che è dal valore creato con la loro musica che deve uscire la sua remunerazione. Lo è invece per gli editori, sicuramente quelle aziende del web che si sono inserite nel business della musica approfittando della perdurante inerzia dell’industria tradizionale, ma anche per l’industria tradizionale che si è mossa con ritardo ed ottusità manifestando una perdurante incapacità nell’adattarsi alle nuove tecnologie, e ha preferito arroccarsi nella difesa del vecchio modello attaccando a testa bassa tutto ciò che è condivisione online, anche quando tale condivisione era permessa dalle attuali leggi vigenti (vedi fair use).

Internet è solo una grande televisione?
Si deve purtroppo ricordare che, nel corso del processo di revisione della normativa sul copyright, la Commissione DG Market per lungo tempo si è soffermata sullo studio dell’ecosistema internet, dipingendolo come un albero: Internet Ecosystem value tree (albero di valore dell’ecosistema internet), presentato per la prima volta da Kerstin Jorna, direttore della sezione Proprietà Intellettuale nella Commissione DG MARKT, nel 2013.

Internet Ecosystem value tree

Internet Ecosystem value tree

Secondo tale diagramma internet non è altro che un canale di distribuzione, alla stregua di quelli che l’hanno preceduta, il cui scopo è di incanalare i contenuti dai produttori (autori, artisti, giornali, libri, editori, emittenti, industria) verso i consumatori. Nell’albero i produttori sono la radice, i consumatori sono le foglie dell’albero.
I consumatori, in cambio, pagano i distributori e la piattaforma internet per i loro servizi. I distributori poi pagheranno i produttori.
L’idea suggerita dalla Commissione è che se la distribuzione non funziona adeguatamente (non consente il trasferimento dei soldi dai consumatori verso i produttori), le radici muoiono e con esse l’intero ecosistema internet. Il succo è che la politica pubblica e le norme giuridiche devono garantire la tutela dell’ambiente digitale e quindi che i produttori siano pagati.

Sulla base di questo diagramma la Commissione sembra intendere internet come un canale di distribuzione più o meno uguale a tutti quelli che l’hanno preceduta, cioè che internet sia niente di più che una grande televisione, un meccanismo di distribuzione a senso unico (contenuti dai produttori ai consumatori e soldi all’incontrario).

Questo sistema di vedere internet appare estremamente semplicistico, retrogrado e incapace di recepire la vera essenza delle nuove tecnologie digitali. Internet fornisce una quantità di ulteriori servizi che non sono nemmeno menzionati nel diagramma della Commissione, come i sistemi mail e messaggistica, gruppi di discussione, comunità online, progetti e piattaforme educative, culturali e di collaborazione, ecc… Questo per non parlare del fatto che numerosi contenuti (user generated content) ormai sono prodotti direttamente da quelli che nel diagramma sono indicati come “consumatori”.
La caratteristica fondamentale di internet è appunto la multidirezionalità, cioè il consumatore è spesso anche produttore, si tratta di un sistema di distribuzione molti-a-molti (all’interno del quale esiste anche il canale produttori-distributori-consumatori) e non uno-a-uno come la classica televisione.
Insomma, a forza di guardare l’albero si perde di vista l’intera foresta.

La riforma europea
Non è dato sapere se questa concezione di internet è ancora all’attenzione della Commissione europea, anche se appare decisamente conforme al parere Svoboda che è stato presentato di recente e contrapposto a quelli Reda e Adinolfi.
Il rapporto Svoboda, infatti, si concentra sulla tutela del copyright occupandosi di garantire la sopravvivenza dell’industria senza preoccuparsi degli altri aspetti peculiari di internet, ad esempio quale mezzo di esercizio dei diritti umani.

Viene, quindi, da preoccuparsi, se l’intento di una riforma del copyright finisce per condizionare l’uso dell’ambiente digitale ponendo al centro della normativa la “copia”, invece che il suo utilizzo. Questo perché la “copia” è l’effetto di qualsiasi attività posta in essere online, ad ogni attività corrisponde una copia (es. cache), per cui incentrare la riforma sulla tutela della copia, così come è l’attuale normativa, determinerà necessariamente un controllo su una quantità di copie, forse anche su tutte, e una conseguente limitazione del diritto di comunicazione privata. Perché è un dato di fatto che l’unico modo per controllare tutte le copie è di controllare tutto il flusso del traffico. Per controllare se c’è in rete un bit illegale occorre controllare e leggere tutti i bit.
L’industria del copyright lo sa, e si giustifica dicendo che interverranno solo su quelli illegali. Lo diceva anche la Stasi della Germania est.

Piuttosto che considerare internet come un centro commerciale, l’alternativa è abbracciare una concezione di internet come mezzo di distribuzione multidirezionale, e di esercizio dei diritti umani, così come previsto dai rapporti Reda e Adinolfi, quindi introducendo maggiore flessibilità e attenzione alle eccezioni libere al diritto d’autore, e ponendo al centro della normativa sul copyright non più il concetto di copia bensì quello di utilizzo.
In tal modo si incoraggerebbe il riutilizzo di opere altrui, a fini non parassitari ovviamente (che rimangono illeciti), alimentando la creatività e l’innovazione, perché la creatività non è altro che il riutilizzo e la modifica di quanto viene dal passato (basta guardare la Disney), la creatività non è qualcosa di riservato a scienziati o artisti, ma è connaturato all’essere umano, non è uno stato passivo della mente, ma è un momento di rielaborazione degli elementi antichi per ottenere idee nuove.
Le nuove idee in realtà non sono altro che quelle vecchie arrangiante in modo diverso, e sono costruite da una differente combinazione di elementi preesistenti. Quindi gli ingredienti per la creatività dipendono dal bagaglio di idee che sono disponibili per la ricombinazione. Se si ha un dominio limitato di conoscenze, se si riduce il pubblico dominio, se si limita o impedisce la diffusione delle opere anche quelle che non hanno più un valore commerciale, si hanno meno risorse cui attingere per formare nuove idee.

Oggi siamo di fronte ad una scelta: disegnare l’internet del futuro come un sistema nel quale siamo tutti potenziali criminali e pirati, da monitorare incessantemente, oppure come un sistema nel quale possiamo, volendo, essere tutti artisti e creatori di cultura.

Autore
Avvocato e blogger. Mi interesso di diritto applicato ad internet e alle nuove tecnologie di comunicazione. @brunosaetta



Il ciclo della notizia sulla bufala dei giochi sessuali tra bambini nell’asilo di Trieste

Infografica in rima per grandi e piccini.






Cyberbullying: in Italy just a warning will be enough to remove online content

A proposed law based on a hoax. How to create an emergency which does not exist in 10 moves.


ciberb

[Italian version here]

A bill (1261) was introduced in the Italian Senate that aims to protect children “to prevent and combat the phenomenon of cyberbullying.” The text of the bill, however, started from an unreal emergency created in 10 “simple” steps:

1. IPSOS, a research organization, conducted a survey on the phenomenon of bullying – online *also* – for Save The Children.

2. Save the Children misread the data – not intentionally, it says – and the rather ordinary research becomes a bomb: “According to 69% of young people under 18, cyberbullying is the greatest danger” (negligence on this issue are rather frequent. It is time to stop).

3. All the newspapers, with no exceptions, synthesize the result of the research more or less by writing: “Cyberbullying is frightening for 70% of young people.”

4. The hoax, though denied by Save The Children, thanks to an article published in Wired, written by Carola Frediani and myself, was received by our representatives in Parliament (the still available press release of Save The Children continues to include the mistake).

5. Our representatives not only did not recognize the hoax as such, but made it the base (it is the first data mentioned with great evidence in the preamble) of a bill that swings between the unnecessary and harmful, especially in the paragraph synthesized by ANSA: “The bill provides for removing offensive content on the Internet and social networks. Just a warning will be needed and the detrimental material will be directly removed by the operators.” Is it simple, isn’t it? Obviously not, as already argued on Wired. According to the first signatory of the bill, Elena Ferrara, Senator of Democratic Party (PD), “it is a law with no sanctions, which does not criminalize the web.” And everyone lived happily ever after.

6. A few months later, in silence and to general disinterest, the bill arrived at the Constitutional Affairs Committee of the Senate.

7. There, it was unanimously passed – who could be for cyberbullying? – and now it is ready for consideration by the House.

8. How is it possible nobody considered verifying if that data was real? It is more striking and out of scale than any other study addressed. How is it possible that nobody read the article which discredited it? How is it possible that nobody read the original version of the research? Yet the Commission has had time to discuss whether the enforcement of this law should occur within 12, 24, 36 or 48 hours (which is an inacceptable time limit to protect the rights of the accused. Evidently this is another consideration the wisdom of senators lacked).

9. It is even worse. If no one has posed any doubts, even in front of the evidence, how do these questions have any sense? And, if so, how can an unreal debate be led back on whether and how to regulate this phenomenon in a correct representation – no matter which are the various opinions about the solutions ? Generally, what is the meaning of the difference between a truth and a lie, even to the legislator?

10. ‘None’ could be the answer, if it helps to get a bit of visibility and appreciation by deceived public opinion – with the complicity of very bad journalism, and very good propaganda.




Cyberbullismo, come creare un’emergenza inesistente in 10 mosse

Bufale, disinformazione e propaganda alla base di un disegno di legge.


ciberb

All’esame dell’Aula del Senato arriva un disegno di legge (Ddl 1261) che punta alla tutela dei minori “per la prevenzione e il contrasto del fenomeno del cyberbullismo”. Il testo del ddl, però, nasce da un’emergenza inesistente creata in 10 “semplici” mosse:

1. Un istituto di ricerca, IPSOS, svolge un’indagine sul fenomeno del bullismo – *anche* online – per Save The Children.

2. Save the Children sbaglia a leggere un dato – non intenzionalmente, dice – e a questo modo la ricerca da piuttosto banale diventa una bomba: «Il cyber bullismo è il pericolo maggiore secondo il 69 per cento dei ragazzi under 18» (piuttosto frequenti le disattenzioni su questo tema, comunque: la smettiamo?).

3. *Tutti* i giornali, nessuno escluso, sintetizzano più o meno a questo modo: “Il cyberbullismo fa paura al 70 per cento dei ragazzi”

4. La bufala, pur smentita da Save The Children grazie a un pezzo su Wired di Carola Frediani e del sottoscritto, giunge ai nostri rappresentanti in Parlamento (e del resto, il comunicato stampa di Save The Children ancora consultabile mantiene l’errore).

5. Che non solo non la riconoscono come tale, ma ne fanno la base (è il primo dato menzionato con grande evidenza nel preambolo) per un disegno di legge che oscilla in buona parte tra l’inutile e il dannoso, specie nella parte così sintetizzata dall’Ansa: «Il ddl prevede la rimozione contenuti offensivi dalla rete e dai social. Basterà una segnalazione e il materiale lesivo sarà direttamente rimosso dai gestori». Semplice no? Ovviamente no, come già argomentato sempre su Wired, ma tanto secondo la prima firmataria, la senatrice PD Elena Ferrara, “è una legge non sanzionatoria, che non criminalizza il web”. E vissero felici e contenti.

6. Fino a quando mesi dopo, nel silenzio e disinteresse generale, la norma finisce in Commissione Affari Costituzionali del Senato.

7. Lì, passa all’unanimità – chi potrebbe essere favorevole al cyberbullismo? – così che ora è pronta per l’esame dell’Aula.

8. E non restano che le domande: possibile che a nessuno sia venuto in mente di verificare che quel dato – eclatante e fuori scala rispetto a ogni altro studio abbia affrontato – sia vero? Possibile nessuno abbia letto il pezzo con cui lo confutavamo? Possibile nessuno abbia cercato la versione originale della ricerca? Eppure la Commissione ha avuto tempo per discutere se l’enforcement della norma debba verificarsi entro 12, 24, 36 o 48 ore (che sia un limite di tempo inaccettabile per tutelare i diritti degli accusati evidentemente è un’altra considerazione sfuggita al senno dei senatori)

9. Ma è perfino peggio. Se nessuno finora si è posto alcun dubbio, nemmeno di fronte all’evidenza, viene da chiedersi: che senso hanno le domande? E, se non ce l’hanno, come si riconduce il dibattito (inesistente) su se e come regolamentare questo fenomeno a una sua corretta rappresentazione – indipendentemente da come la si pensi sulle soluzioni? Più in generale, che senso ha la differenza tra una verità e una bugia, perfino per il legislatore?

10. Nessuna, viene da rispondere, se serve a ottenere un po’ di visibilità e apprezzamento da un’opinione pubblica ingannata – con la complicità di troppo cattivo giornalismo, e di troppa buona propaganda.




Perché per il lavoro non è ancora la #lasvoltabuona

Dagli ultimi dati Istat e da quelli del ministero del Lavoro emerge una situazione caratterizzata soprattutto dalla sottoccupazione e dal precariato. I numeri ci parlano, dunque, di un paese che non crea lavoro ma lo distrugge.


Chaplin

Sembra non esserci luce in fondo al tunnel del mercato del lavoro in Italia. Questo almeno è il quadro che emerge analizzando i dati Istat sull’occupazione pubblicati lo scorso 2 marzo e le comunicazioni obbligatorie rese note dal ministero del Lavoro, utili a monitorare le informazioni sulla vita lavorativa degli italiani.

Secondo l’Istituto Nazionale di Statistica a gennaio 2015 c’è stato un aumento di 131.000 occupati (differenti dai “posti di lavoro”, come già spiegato precedentemente) rispetto allo stesso periodo dello scorso anno. Nel complesso del 2014, rispetto all’anno precedente, il numero di occupati ha registrato un incremento (+88 mila) suddiviso tra il Nord e il Centro, mentre nel Mezzogiorno c’è stata una diminuzione di 45 mila unità.

Un aumento dovuto principalmente alla crescita dei contratti part-time (+124mila). Quelli a tempo pieno hanno registrato infatti un contrazione di 35mila unità.

Emerge in particolare un mercato del lavoro caratterizzato da sottoccupazione e precariato, come mostra anche l’incidenza del part-time involontario (Figura 1), soprattutto tra i giovani. I lavoratori tra i 15 e 24 anni che hanno accettato un lavoro part-time, pur aspirando a un lavoro a tempo pieno, sono più che raddoppiati tra il 2008 e il 2014 (+57%), mentre nello scorso biennio l’aumento è stato del 3,45%. Dato che rimane elevato anche per i fratelli maggiori e per i genitori per i quali l’incidenza del part-time involontario supera in entrambi i casi il 60%.

Clicca per ingrandire.

Figura 1. Clicca per ingrandire. Fonte: rielaborazione propria su dati Istat

Guardando ancora ai dati Istat, i contratti a tempo determinato rappresentano il maggiore contributo (il 90%) all’occupazione, mentre quelli indeterminati si fermano solo al 20%.

Tabella 1

Clicca per ingrandire.

 

Per capire come varia nel tempo il numero dei posti di lavoro bisogna guardare, invece, quanti contratti nuovi sono stati attivati e quanti sono stati chiusi in un determinato periodo.
L’altro ieri il ministero del Lavoro ha pubblicato i dati trimestrali sulle comunicazioni obbligatorie, che sono alla base del calcolo dei posti di lavoro. Il risultato è sorprendente in negativo: nel quarto trimestre del 2014 i contratti cessati superano quelli avviati di quasi 900.000 unità.

Un dato spaventoso che è bene comprendere e analizzare. Ogni anno, l’ultimo trimestre è quello caratterizzato da una forte contrazione degli avviamenti netti. Tuttavia, nel quarto trimestre del 2014, i rapporti di lavoro attivati al netto di quelli distrutti sono stati 60.000 in meno rispetto allo stesso trimestre del 2013. Confrontando le medie annuali, tra il 2013 e il 2014, si può leggere una riduzione complessiva di 3.956 posti di lavoro.

I nuovi contratti a tempo indeterminato (Figura 2) continuano a diminuire (-207.995 nel solo trimestre) e lo fanno più velocemente che nel 2013: confrontando infatti i dati del quarto trimestre 2014 rispetto allo stesso periodo dell’anno precedente si nota che quelli distrutti sono circa 14 mila in più (+7%).

Clicca per ingrandire. Fonte: elaborazione propria su dati Comunicazioni Obbligatorie del Ministero del Lavoro

Figura 2. Clicca per ingrandire. Fonte: elaborazione propria su dati Comunicazioni Obbligatorie del ministero del Lavoro

 

Mentre i contratti a tempo determinato continuano ad aumentare, i posti di lavoro diminuiscono del 12% nella comparazione dell’ultimo trimestre del 2014 rispetto al 2013. Solamente i contratti di apprendistato aumentano significativamente. Se esista una vera e propria sostituzione tra le diverse tipologie contrattuali e l’apprendistato è difficile da stabilire. Tuttavia, la rappresentazione statistica permette di affermare che le imprese hanno visto di buon occhio la nuova legislazione sull’apprendistato, introdotta dal decreto Poletti.

L’instabilità dei rapporti di lavoro è, invece, ben rappresentata dalla durata effettiva di quelli cessati: nell’ultimo trimestre del 2014, infatti, il 32% dei contratti terminati ha avuto una durata non superiore al mese, il 36% tra i 4 e 12 mesi e solo nel 16% dei casi oltre un anno (Figura 3).

Clicca per ingrandire. Fonte: elaborazione propria su dati Comunicazioni Obbligatorie del Ministero del Lavoro

Figura 3. Clicca per ingrandire. Fonte: elaborazione propria su dati Comunicazioni Obbligatorie del ministero del Lavoro

 

Molti, troppi posti di lavoro distrutti, e molte persone in cerca di un’occupazione. Se nel confronto tra il 2013 e il 2014 l’aumento del tasso di occupazione è stato di un esiguo 0,2%, il tasso di disoccupazione ha raggiunto il 12,7% nel 2014 (il 20% nel Mezzogiorno), con un crescita della disoccupazione di lungo periodo, cioè di coloro che non hanno un lavoro da tempo, pari al 60,7% dei disoccupati (+7% rispetto al 2013).

La variazione annuale del tasso di disoccupazione per tipo di disoccupato è trainato da chi è alla ricerca di prima occupazione (+14,3%) senza grosse differenze di genere, come mostra il prospetto 7 dell’Istat.

Clicca sull'immagine per ingrandire.

Clicca sull’immagine per ingrandire.

 

Tirando le somme della condizione del mercato del lavoro italiano nel 2014, è utile anche stabilire da cosa è composta la riduzione del tasso di inattività, spesso sbandierata come la cifra della fiducia ritrovata da parte di chi non lavora. L’incremento del tasso di attività sembra essere dovuto all’aumento dei soggetti tra i 55 e i 64 anni che provano a cercare lavoro, come mostra la Figura 4 e non a un minor scoraggiamento dei più giovani, il cui tasso di inattività mostra ora un andamento crescente, nonostante sia rimasto costante tra il 2013 e il 2014. Al contrario, la riduzione del tasso di inattività degli over cinquanta, iniziata nel 2004, si intensifica notevolmente con la crisi e continua ad aumentare nel 2014, senza mostrare grosse differenze di genere.

Clicca per ingrandire. Fonte: rielaborazione propria su dati Istat

Figura 4. Clicca per ingrandire. Fonte: rielaborazione propria su dati Istat

 

Come mostra infine la Figura 5, l’incidenza dei NEET, cioè di coloro che non studiano e non lavorano, è a fine 2014 più elevata di quella relativa all’ultimo periodo del 2013. A partire dalla fine del secondo trimestre del 2014, quando entra in vigore il decreto Poletti, la quota di NEET tra i 15 e 24 anni passa dal 20,34% al 23,75% (un aumento nel trimestre del 16,8%) per poi arrestarsi a fine anno al 22,3%.

Clicca sull'immagine per ingrandire. Fonte: rielaborazione propria su dati Istat

Figura 5. Clicca sull’immagine per ingrandire. Fonte: rielaborazione propria su dati Istat

 

I dati quindi continuano a mostrare che in Italia non si crea lavoro ma si distrugge nonostante i tentativi di fornire una narrazione differente e meno drammatica.

Autore
Dottoranda in economia presso SciencesPo, a Parigi. Mi interesso di political economy, economia della corruzione, disuguaglianze, lavoro e welfare. Attivista di Act! @martafana



I No Tav e le comunità perdute sotto tonnellate di cemento

Infiltrazioni mafiose, roghi, intimidazioni: il dramma della Val Susa, anziché lasciare macerie, ha favorito la nascita e il radicamento di una comunità laboratorio di democrazia e cultura. Quello che manca al paese.


corteo no tav

“Ho ritrovato la mia infanzia in Val Susa”, questo ho pensato entrando nell’appartamento che i No Tav ci hanno lasciato per dormire, in questi giorni di riprese per Valigiabu. Guardando dalla finestra vedo le Alpi innevate, non saprei indicare esattamente su una mappa la mia posizione attuale, eppure non potrei essere più vicino alla mia Sardegna (quella stampata nella mia memoria).

Già dall’inizio di questo viaggio mi sono trovato più volte a tornare nel passato. Come in stazione a Torino: appena scesi dal vagone ho riconosciuto Boosta, il tastierista dei Subsonica, mentre mangiava un panino da McDonalds. Anche la mia prima volta a Torino, era il 2012, incontrai un membro della band, Max Casacci, che metteva i dischi da Giancarlo ai Murazzi.

C’è qualcosa che riporta indietro, della Val Susa. Tornando qui dopo diversi anni ho ripensato a quando c’era Berlusconi al governo: sembrava che manifestando avremmo ottenuto un paese migliore. È anche figlia della solidarietà che ci lega da quei giorni, l’ospitalità ricevuta dai No Tav. “È casa di mia madre”, mi spiega al telefono Claudio Giorno, attivista che ho conosciuto in quegli anni, “D’inverno viene a stare da noi, quindi la casa è vuota, potete starci tranquillamente”.

E poi lì, in quell’appartamento sotto una montagna, trovare la mia infanzia. Gli infissi di legno degli anni ’60 (quelli in cui il vetro sbatte), le porte di casa in legno laccato e ottone, il letto e l’armadio come l’aveva mia nonna (ma il suo era ricoperto di buchi di tarlo). I soprammobili, perfino i fornelli, sono gli stessi delle case dei miei parenti e amici di quando ero piccolo. Quando non si badava agli ascensori, ai portoni in vetro e acciaio, ai terrazzi grandi come eliporti.

Non è un caso, forse, se tutto questo mi è tornato in mente in Val Susa, dove da 25 anni una comunità si oppone alla costruzione del treno ad alta velocità Torino-Lione. Mi sono chiesto: “Da quanto tempo non vedevo una casa come questa?”. Nel mio vecchio quartiere, in Sardegna, hanno buttato giù tutte le case di uno o due piani. Ci vivevano spesso persone anziane. Come la vecchietta della casa a un piano, senza intonaco e col tetto rosso, al suo posto ora c’è un palazzo a sei piani. O la nonna del mio amico che stava sempre alla finestra, anche lì ora è sorto un casermone.

Per non parlare dell’enorme distesa di centri commerciali che si estende attorno la città in cui sono cresciuto: “Questa zona è stata un laboratorio per l’urbanistica italiana”, mi spiegava un amico architetto a natale, mentre entrando in città dall’aeroporto imprecavo come al solito alla vista dei cantieri. Un laboratorio, già, perché l’Italia è una repubblica fondata sugli appalti. E i No Tav, questo, lo sanno meglio di tutti: “Qui non c’è spending review”, mi spiega Claudio Giorno mentre ci guida in giardinetta per le strade della valle. “Col cantiere prima e la militarizzazione poi, qui arrivano fiumi di soldi. I No Tav fanno comodo”, conclude.

Ma la valle è tutto meno che un avamposto selvaggio. “Quella è l’autostrada”, spiega Valerio Colombaroli che ci accompagnerà al cantiere: “E poi c’è questa statale, l’altra statale, la ferrovia e il binario morto”, conclude. Salendo sul colle ci fermiamo a guardare dall’alto: è un reticolo di cemento e ferro. “Guarda il treno che arriva”, dice Giorno indicando a Valle, “È completamente vuoto. Il traffico merci è in calo da 20 anni”. Dalla collina si vede, in basso, il presidio No Tav di Borgone, una casetta in legno col comignolo. Ci dirigiamo lì: “Qui c’è il miglior caffè della Val Susa”, annuncia Valerio.

“La Val Susa è la Twin Peaks italiana”, penso. Ci sono tanti misteri irrisolti, personaggi loschi, un mondo a parte con regole proprie, situato in mezzo ai boschi. Mistero numero uno: se i treni sono vuoti, se gli abitanti non la vogliono, se la valle è già iper costruita… perché si vuole (ancora) realizzare la Tav? Mistero numero due: chi ha bruciato il fabbricato che si trova di fronte al presidio di Borgone? “Era il vecchio presidio”, racconta Giorno, “Qualcuno gli ha dato fuoco”. Poco lontano, qualcuno ha scritto con una bomboletta spray: “Si Tav”.

Sono bruciati altri due presidi negli ultimi anni. “Hanno bruciato la facciata di quella chiesa”, indica Giorno mentre guida, “E anche quel centro congressi”. C’è scritto ‘speculazione’ ovunque, sulla Val Susa. I roghi, il malaffare, gli appalti e le infiltrazioni mafiose in qualsiasi altro posto avrebbero lasciato solo macerie. Qui è accaduto il contrario: “Abbiamo già vinto”, dice Valerio in un momento di silenzio. “Sto qui da una vita ma non conoscevo nessuno”, spiega. “Con l’opposizione alla Tav siamo diventati una comunità. Pochi giorni fa c’è stato il funerale di un attivista, c’era una folla a salutarlo”.

Anche Francesco Guccini, il cantautore modenese, è voluto venire qui a presentare il suo libro con Marco Aime, antropologo vicino al movimento. In tanti sono venuto a vederlo ma la fila è composta: siamo, dopotutto, in Piemonte. Chiamo Luca, che ha accompagnato Guccini nel viaggio, e grazie a lui riusciamo a fargli un paio di domande: “Mi sembra assurda la vicenda di Erri De Luca, non ha alcun senso”, commenta il cantautore sull’imputazione per istigazione a delinquere dello scrittore. “Su da me forse (…) dovrebbero fare una strada che distruggerà la parte di là dal fiume… se sarà il caso cercherò di adoperarmi per fare qualcosa”.

Per Guccini, quindi, i No Tav sembrano essere un esempio da seguire. E le sue parole, dette da un artista simbolo degli anni ’70, sembrano ricordare  nostalgia le comunità perdute di una volta. Dall’altra parte, però, c’è stata una opposizione frontale dello Stato – come la chiama l’ex magistrato Livio Pepino – volta a criminalizzare il movimento: “Per il numero dei processi, la loro corsia privilegiata, le modalità usate, i reati contestati” (su tutte l’imputazione per terrorismo). Allora, mi chiedo: perché la loro protesta ha avuto così tanto successo? Perché se dalle mie parti hanno buttato giù le case a uno o due piani, qui invece, dopo 25 anni, dopo i processi per terrorismo, dopo i roghi e le intimidazioni, ancora non si arrendono?

Sarà dovuto al fatto che si tratta di una protesta locale su un fatto specifico. “C’entra la tradizione partigiana”, sottolinea Valerio. La dimensione locale, inoltre, ha fatto sì che i rappresentanti politici fossero direttamente raggiungibili. La mobilitazione contro la Tav ha educato una popolazione alla democrazia: votare qui non solo è un diritto, è importante per la propria sopravvivenza (l’affluenza al voto qui è sempre molto alta). E il movimento è diventato un vero e proprio motore di produzione culturale: “Conto 120 libri sulla nostra protesta finora”, commenta Giorno.

Ma è qualcosa più di questo. Qualcosa che non si può spiegare con le analisi politiche, con le sentenze, con i dati sul traffico delle merci. È qualcosa che trascende, perché in valle rimangono le cose seppellite della nostra infanzia, quelle che pensavamo perdute per sempre. È una terra di confine, con la Francia, certo, ma anche col nostro passato, con le comunità vive ormai scomparse, con la strenua resistenza dei deboli contro i potenti.

La Val Susa sta ancora lì, a ricordarci che certe cose devono essere preservate, anche se Dio, il Papa e lo Stato non sono d’accordo. Per ricordarci che c’è stato un tempo in cui non avremmo permesso a nessuno di toccare ciò a cui teniamo di più, anche in questo paese dove sembra che ogni azione sia vana perché tanto non cambia mai nulla. Tutto questo l’ho ricordato In Val Susa, dentro un piccolo appartamento, con la mia infanzia dentro. Ringrazio i No Tav per averla conservata fino ad oggi.

[Foto via sestocielo.it]

Leggi anche Notav, hanno criminalizzato la partecipazione dei cittadini




Valigia Blu - I contenuti di questo sito sono utilizzabili sotto licenza cc-by-nc-nd