riconoscimento_facciale

«Io sono per taggare i potenziali soggetti pericolosi». La pessima idea di Renzi contro il terrorismo

Il governo italiano sostiene di avere trovato la soluzione al problema del rapporto tra tecnologia e terrorismo: si chiama "riconoscimento facciale", e sia Matteo Renzi che Angelino Alfano sono convinti sia lo strumento per conciliare libertà e sicurezza nel dopo-Parigi, al punto di farne un elemento qualificante del contributo italiano alla risposta europea alla minaccia ISIS.

Il presidente del Consiglio l'ha affermato, pur se con scarsa proprietà di linguaggio, in coda all'intervento all'Italian Digital Day di Venaria Reale:

«Io sono per fare più controlli, per essere più operativo, per avere un sistema di informatica maggiore, di digitalizzazione delle immagini, di riuscire a fare riconoscimento facciale, io sono per mettere in comune tutte le banche dati, io sono per far sì che ogni telecamera venga messa a disposizione della forza pubblica per poter dire che in quella realtà lì io riconosco una persona, io sono per taggare i potenziali soggetti»

Il giorno dopo, il ministro dell'Interno Alfano l'ha ribadito in un videoforum su Repubblica.it:

«Il futuro è il riconoscimento facciale, sistemi tecnologici che consentano di immagazzinare i volti, immagini che entrano nella banca dati. Non solo negli aeroporti, abbiamo un piano di potenziamento del nostro sistema sicurezza».

Di questo "piano" mancano ancora i dettagli, ma sappiamo quanto basta per capire che sono questi i «maggiori controlli» di cui sia Renzi che Alfano avevano parlato già negli scorsi giorni, e che – dice il premier – non sarebbero «un agguato alla privacy».

Del resto, come ribadito da Renzi nel discorso al Campidoglio, i 150 milioni di euro di investimenti promessi in cybersicurezza saranno «nel rispetto della privacy»; altro non è dato sapere. L'unico riferimento alla videosorveglianza è in un verboso passaggio in cui, a suon di immagini e storytelling, il presidente del Consiglio illustra l'idea per cui a ogni euro investito in sicurezza deve corrisponderne uno in cultura.

Ma ci sono svariate criticità nell'approccio al contrasto e alla prevenzione del terrorismo basato sul riconoscimento facciale.

Se è il futuro, lo è dal 2001

Per prima cosa, Alfano dice che il riconoscimento facciale «è il futuro». Ma in realtà, e il ministro dell'Interno dovrebbe saperlo, è una affermazione che si legge almeno dal 2001 e dall'attacco alle Torri Gemelle - e in questi esatti termini:

Il Wall Street Journal, due settimane dopo l'11 settembre.
Il Wall Street Journal, due settimane dopo l'11 settembre 2001.

USA Today ha poi aggiunto come sperimentazioni fossero già avvenute, sempre nel 2001, all'aeroporto internazionale Logan di Boston e al Super Bowl di Tampa. Ma la questione si è posta ciclicamente, negli anni - specie in Gran Bretagna e Stati Uniti:

USA Today, nel 2007, si chiede se il futuro sia il riconoscimento facciale.
USA Today, nel 2007, si chiede se il futuro sia il riconoscimento facciale.

Se insomma questo tipo di risposta tecnologica al terrorismo "è il futuro", lo è da almeno quindici anni. Ovvero, esattamente gli stessi in cui il problema terrorismo si è invece dispiegato in tutta la sua gravità – riconoscimento facciale o meno.

Il riconoscimento facciale non riconosce granché

Il che solleva, e ha sollevato, più di qualche dubbio sulla reale efficacia della soluzione proposta. Perché se lo scenario ideale è semplice, lo è molto meno quello che invece si verifica in realtà. A spiegare con chiarezza quanto sia profonda la differenza è Grant Hatchimonji su CSO:

«Non è questo il futuro? Siccome devono individuare i cattivi mischiati nella folla, i buoni cominciano a scandagliare l'ambiente con una videocamera equipaggiata con tecnologia di riconoscimento facciale. Pochi secondi dopo, eccola identificare una faccia che combacia con quella di un criminale in un database, e il gioco è fatto. Ma il futuro è già qui, più o meno. Il potenziale del riconoscimento facciale è significativo (ma) il livello di accuratezza non è abbastanza elevato da consentire l'utilizzo nello scenario appena menzionato, quantomeno non con un alto tasso di successi».

Il problema è la distinzione, nota agli esperti della materia ma evidentemente meno al nostro governo, tra contesti cooperativi (in cui il soggetto si pone deliberatamente di fronte alla telecamera per l'identificazione) e non cooperativi (in cui ciò non avviene).

Se il riconoscimento facciale attualmente fornisce buoni risultati nei primi, dicono gli studiosi, nei secondi l'efficacia cala paurosamente. E a meno che non si pensi che un terrorista voglia concedersi quello che i media chiamerebbero un "selfie" in favore di videosorveglianza, c'è da dubitare che quell'apparato di controllo sarebbe da solo in grado di fare davvero la differenza nel contrasto della minaccia ISIS al nostro paese.

Lo diceva Jay Hauhn a CSO, lo scorso anno: «Dopo l'11 settembre, riconoscimento facciale e video avrebbero dovuto risolvere tutti i nostri problemi. Beh, non è accaduto». E i test degli ultimi anni non hanno aumentato le probabilità che prima o poi accada.

I dati raccolti dall'ACLU dal 2001 a oggi, infatti, non fanno che confermare:

«(...) studi governativi sui software di riconoscimento facciale hanno scoperto alti tassi sia di "falsi positivi" (associare erroneamente innocenti a foto nel database) che di "falsi negativi" (non catturare un sospetto anche se la foto è nel database)»

Siccome i nostri volti, contrariamente a un'impronta digitale per esempio, mutano nel tempo, il tasso di "falsi negativi" in uno studio del NIST sulla base di foto prese solamente 18 mesi prima del tentativo di identificazione è stato del 43%.

E parliamo di foto prese in condizioni ideali per il lavoro del software di riconoscimento, aggiunge l'ACLU: ruotare l'angolo della visuale della telecamera di soli 45 gradi rende l'intero apparato di sorveglianza completamente inutile. Non a caso, si legge ancora, la sperimentazione dal vivo a Tampa, in Florida, ha prodotto una sequela interminabile di errori – e quella a Boston non è andata meglio.

«Non ci dobbiamo aspettare che la cattura di una percentuale molto bassa di criminali conosciuti», dice Samir Nanavati dell'International Biometric Group. Per questo "svariate" amministrazioni che hanno testato soluzioni a base di riconoscimento facciale sono tornate sui loro passi.

Un esempio di fallimento recente? Le bombe alla maratona di Boston del marzo 2013. Scrive Ars Technica:

«I presunti responsabili, Dzokhar e Tamerlan Tsarnaev, erano entrambi nel database. Nonostante avesse a sua disposizione una serie di foto dei sospetti, il sistema non è stato in grado di produrre alcun riconoscimento. O, quantomeno, non l'ha fatto prima che i fratelli Tsarnaev fossero identificati tramite altri strumenti».

Certo, la tecnologia progredisce rapidamente, ma se la soluzione serve ora, lo strumento non sembra adeguato alle ambizioni di chi li propone. Senza contare che se funzionasse perfettamente, un sistema diffuso e pervasivo di riconoscimento facciale ci condurrebbe a una domanda anche più inquietante: siamo davvero disposti a vivere in una società simile, per contrastare una minaccia terroristica che ci sta già costringendo a un'emergenza senza fine dal 2001?

Perché non è semplice come vorrebbe Renzi

Ma perché il riconoscimento facciale, attualmente, non funziona - non certo quanto vorrebbero Renzi e Alfano? Il punto è sostanziale: «le tecnologie di riconoscimento biometrico possono funzionare ed essere d’aiuto, ma il caso d’uso va ben circoscritto e definito, altrimenti sono tecnologie molto fragili», dice Davide Ariu, assegnista di ricerca presso il PRALab dell'Università di Cagliari, a Valigia Blu.

Significa che la tecnologia, da sola, non basta. E che se si vuole provare a massimizzarne l'efficacia, ne vanno ben definite le condizioni di utilizzo (no, esporre vaghi propositi soluzionisti a un convegno sul "digitale" non è sufficiente). Come detto, le probabilità di una corretta identificazione dipendono dalla capacità del sistema di inquadrare l'ovale del volto.

Ma non solo. Ariu indica il ruolo della luminosità del luogo in cui si vorrebbe riconoscere il sospetto o il ricercato. La letteratura parla da tempo dei problemi per persone dalla pelle più scura, ma il caso peggiore, sostiene il ricercatore, è quello di un soggetto pelato, il cui cranio riflette la luce e dunque ostacola il software. Ma anche camuffarsi o rendersi comunque irriconoscibili è piuttosto semplice: per esempio, tramite "occlusioni" (coprirsi la bocca con una mano, indossare occhiali da vista o da sole per non rendere ben visibili gli occhi, portare il cappello).

C'è poi che «le forze dell’ordine hanno serie difficoltà ad analizzare centinaia di ore di filmati», per un numero di sospetti che solo in Francia è intorno agli undicimila individui. Perché, dice Ariu, «i sistemi di riconoscimento facciale non sono in grado attualmente di capire se c’è in corso una collutazione o dell’altro».

Un problema analogo a quello che la sorveglianza di massa non è stata finora in grado di risolvere: controllare tutto non serve a nulla se non si riesce a dare senso all'enorme mole di informazioni prodotta. Per questo viviamo il paradosso di una società orwelliana in cui tuttavia i terroristi eludono i controlli, e i cittadini innocenti finiscono per essere trattati tutti come potenziali sospetti.

Un problema che ci riguarda tutti

Il che fa comprendere come quello del riconoscimento facciale in funzione antiterrorismo sia un problema che riguarda ciascuno di noi. Come per la sorveglianza digitale "a strascico", massiva, la tentazione sarebbe di dire: se non faccio niente di male, non ho niente da temere.

Ma di nuovo, non funziona. E il motivo è semplice: cosa vieta al governo di usare i dati acquisiti tramite videosorveglianza (più o meno) "intelligente" a scopi che non hanno nulla a che vedere con il terrorismo? Cosa garantisce che ciò non significhi una indebita invasione nelle vite quotidiane di perfetti innocenti? Forse la mancanza perfino di una definizione dei termini più elementari della questione, da chi è un "sospetto" a quali sono le garanzie di cui può beneficiare?

È quanto sta già accadendo sempre più negli Stati Uniti. Come scriveva il New York Times ad agosto di quest'anno:

«I software di riconoscimento facciale che l'esercito americano e le agenzie di intelligence hanno usato per anni in Iraq e Afghanistan per identificare potenziali terroristi stanno venendo adottate con impazienza da dozzine di dipartimenti di polizia negli Stati Uniti per dare la caccia a spacciatori, prostitute e altri sospetti di crimini convenzionali».

Che c'è di male? È presto detto:

«Visto che (quei software, ndr) vengono usati con linee guida esigue e scarso controllo o comunicazione al pubblico, stanno suscitando critiche in termini di privacy e di potenziali abusi».

Il garante italiano, non informato – a quanto risulta a Valigia Blu – dei piani di Renzi e Alfano se non dalle agenzie (è l'era degli annunci, dopotutto), si è espresso in termini dubitativi ma possibilisti a Sky Tg 24: più controlli possono essere compatibili con i diritti fondamentali. Ma non è un mistero che la questione sia controversa, e lo dimostrano gli svariati interventi in materia.

Di nuovo, la questione è troppo complessa per accontentarsi di annunci e vaghe frasi di circostanza. Non a caso l'ACLU prescrive di non adottare sistemi di riconoscimento facciale senza chiedersi 1) se siano efficaci allo scopo preposto e 2) anche qualora lo siano, se il compromesso da raggiungere in termini di sacrificio di libertà e diritti sia accettabile. Impossibile formulare una valutazione di questo tipo quando il dibattito verte sull'espressione "taggare i terroristi", completamente priva di significato.

Per l'ACLU, a ogni modo, una risposta c'è già: il riconoscimento facciale fallisce entrambi i test: «visto che non funziona in maniera affidabile, non proteggerà in modo significativo la nostra sicurezza – pur rappresentando invece una significativa minaccia per la nostra privacy».

Renzi, insomma, può certo sostenere il contrario – ma non senza portare prove e argomenti a difesa della sua posizione.

Quanto agli abusi, basta la cronaca. Nel 2011, per esempio, c’è stato chi ha perso la patente per via della mera somiglianza con un soggetto finito nelle maglie dei controlli antiterrorismo dei sistemi di riconoscimento facciale in uso nel Massachusetts.

Valigia Blu ha interpellato la presidenza del Consiglio e il Viminale per ottenere risposte dettagliate a precise questioni poste dai sistemi di riconoscimento facciale in funzione antiterrorismo – senza tuttavia ottenere alcuna risposta al momento di pubblicazione di questo articolo.

Segnala un errore