apple-san-bernardino-shooters-iphone

FBI-Apple: la battaglia sulla crittografia. E perché Apple ha ragione

Articolo in partnership con Cronaca Italiana – Quotidiani locali Gruppo Espresso

Il lungo, annoso dibattito su crittografia e terrorismo, e dunque tra protezione dei nostri dati personali in rete e capacità delle forze dell’ordine e dell’intelligence di accedervi per sconfiggere il “terrore”, è giunto in queste ore a un (pericoloso) punto di svolta.

Una corte federale californiana ha infatti imposto ad Apple “un aiuto nel consentire l’ispezione” di un iPhone 5c: quello posseduto da Syed Rizwan Farouk, uno degli autori dell’attentato terroristico che fece 14 vittime a San Bernardino, il 2 dicembre scorso. Gli agenti sarebbero secondo il Washington Post a caccia di foto, contatti e messaggi “cruciali” per le indagini. Messaggi però cifrati, contenuti nel telefonino e non copiati sui server di Apple tramite iCloud - a quelli, dice l’FBI, l’azienda ha già fornito accesso. E l’attentatore non faceva un backup da ottobre 2015, si pensa intenzionalmente.

Il problema è che gli agenti hanno dovuto arrendersi, come ha spiegato la scorsa settimana il direttore FBI, James Comey, alle tecniche di cifratura utilizzate dallo smartphone di Cupertino. Che prevedono che quando un utente imposta una password, la combinazione scelta generi una chiave di cifratura. Questa viene poi usata insieme a un'altra chiave hardware, del telefono, per cifrare i messaggi scambiati. Apple dice di non averne una copia (end-to-end encryption). Senza quella chiave, anche se Apple disattivasse la funzione che elimina i contenuti presenti sull'iPhone dopo 10 tentativi a vuoto, potrebbero volerci secondo gli esperti fino a 10 anni per riuscire a scoprirla.

Non stupisce dunque Comey abbia ammesso: «Ci stiamo lavorando da due mesi». E senza successo, visto che ora l'FBI ha chiesto, e ottenuto grazie alla corte, che Apple fornisca ai suoi agenti "ragionevole assistenza tecnica".

Cosa vuole l'FBI da Apple

Ma che significa? Secondo l'ordine della corte, tre cose. Apple deve:

1. Rimuovere o disabilitare la funzione di auto-distruzione dei contenuti;
2. Consentire all’FBI di provare a inserire la password corretta (in sostanza, abilitare tentativi infiniti di trovarla, una tecnica detta “brute force”);
3. Garantire che non ci siano le attese (delay) tra un tentativo e l’altro attualmente previste da iOS, a meno di quelle necessarie al funzionamento dell’hardware.

Il tutto deve essere fatto tramite un programma – SIF, Software Image File – dotato di un identificativo unico Apple, e in grado di funzionare solo sul telefonino dell’attentatore. Il programma deve essere messo in funzione o in una struttura dell’FBI o in una di Apple.

Se Apple pensa di poterci riuscire in ogni altro modo, lo faccia, conclude la corte. Che fonda la sua decisione su una norma del 1789. Sarebbe dunque una legge risalente all'epoca coloniale ad autorizzare la richiesta ad Apple di aiutare l'FBI a decifrare i messaggi sui suoi device iOS. Richiesta che, nota il Washington Post, non sarebbe in ogni caso riassumibile con l'idea che l'FBI abbia più genericamente chiesto ad Apple di "violare" la sua crittografia.

Cook non ci sta

Apple, chiude la corte, può opporsi alla sua decisione. E ha cominciato a farlo, in un lungo comunicato del CEO Tim Cook. Una replica a muso duro che si oppone a quella che l'erede di Steve Jobs definisce una decisione «senza precedenti, che mette in pericolo la sicurezza dei nostri utenti». Nessuna concessione ai terroristi, scrive Cook, e massima disponibilità a collaborare con le forze dell’ordine, ma ora «il governo USA ci ha semplicemente chiesto ciò che non abbiamo, e che consideriamo troppo pericoloso da creare».

La spiegazione del CEO è chiara, la posizione netta:

L’FBI vuole farci creare una nuova versione del sistema operativo dell’iPhone, capace di aggirare alcune importanti funzioni di sicurezza, e costringerci a installarla su un iPhone recuperato durante le indagini. Nelle mani sbagliate, quel software - che a oggi non esiste - potrebbe sbloccare qualunque iPhone sia in possesso fisico di chiunque.

Insomma, si tratterebbe a tutti gli effetti di una “backdoor”, una via d’accesso nascosta ai dati degli utenti. Una posizione immediatamente smentita dalla Casa Bianca: si parla di accesso a un solo telefono.

Ma perché una "backdoor" dovrebbe essere un problema tanto grave, dato che si tratta di un singolo telefonino? «Chiederlo significa ignorare i fondamenti della sicurezza digitale», risponde durissimo Cook, «e l’importanza di ciò che sta chiedendo il governo in questa particolare circostanza».

Che sta invece nella possibilità, più che concreta, che quella soluzione si diffonda e venga utilizzata per aprire qualunque iPhone:

Il governo suggerisce che questo strumento potrebbe essere usato solo una volta, su unico telefono. Ma è semplicemente falso. Una volta creata, la stessa tecnica potrebbe essere usata ancora e ancora, su un qualunque numero di device. Nel mondo fisico, sarebbe l’equivalente di un passe-partout, in grado di aprire centinaia di milioni di lucchetti - di ristorante e banche, negozi e case. Nessuna persona ragionevole lo accetterebbe.

Peggio ancora sono le implicazioni di una simile decisione, definite “spaventose”. In sostanza, come ricorda Kevin Bankston su Twitter, la battaglia è per impedire che chiunque scriva software possa essere «costretto ad aggiornare qualunque device con un malware», cioè con programmi per controllare o manipolare l’informazione presente su quello stesso device a completa insaputa dell’utente.

Sono all’incirca le parole di Cook:

Il governo potrebbe estendere questa violazione della privacy alla richiesta che Apple crei software per la sorveglianza che intercettano i vostri messaggi, hanno accesso ai vostri dati sanitari o finanziari, tengono traccia della vostra localizzazione o accedono perfino al microfono o alla fotocamera del telefonino senza che lo sappiate.

Un pericoloso precedente, su cui Cook ha cercato di costruire una risposta che sollevi un dibattito pubblico - necessario peraltro nei molti paesi anche democratici in cui la crittografia è in pericolo, non solo negli Stati Uniti. Portando, nota più di qualcuno, le democrazie a somigliare sempre più ai regimi autoritari. Non a caso, sono proprio questi ultimi i paesi in cui secondo diversi esperti di privacy le conseguenze della sconfitta di Apple rischiano di udirsi eccome. Anche per le aziende USA, che rischierebbero di confrontarsi con richieste di accesso ai dati in loro possesso - magari di natura politica - anche maggiori.

Ma Apple potrebbe ubbidire? E dovrebbe?

La prima domanda è: Apple potrebbe ubbidire all’ordine della corte, se lo volesse? Secondo Jonathan Zdziarski, a livello prettamente tecnico sì:

1. La procedura per la creazione di un software apposito (SIF) che consenta all’FBI di tentare all’infinito di decifrare i dati senza che vengano cancellati è realizzabile, nelle modalità descritte nell’ordine.

2. Anche le modifiche richieste – rimuovere il delay nel PIN e il meccanismo di cancellazione dopo 10 tentativi errati – si possono realizzare, soprattutto visto che il modello in questione è un iPhone 5c che non monta il più avanzato chip A7, dotato di ‘Secure Enclave’ - ovvero della maggiore sicurezza garantita da TouchID.

Anche un’analisi tecnica del blog ‘Trail of Bits’, molto diffusa in rete tra gli esperti di cybersecurity, concorda: a una prima lettura, «credo che tutte le richieste dell’FBI siano tecnicamente fattibili», scrive Dan Guido.

Cook, tuttavia, non dice che le richieste dell’FBI non sono tecnicamente realizzabili: dice che non è opportuno soddisfarle – anche se per ragioni tecniche. E su quelle ragioni tecniche, che portano a opporsi all'indebolimento della crittografia (pur se nel nome dell'antiterrorismo), gli esperti concordano da decenni.

Di fatto però resta che, se passasse la linea di Cook, sarebbe un soggetto privato, Apple, a stabilire cosa è giusto rivelare e cosa no alle autorità, anche in presenza di un ordine giudiziario.

E questo solleva alcune questioni: è più grande il diritto delle forze dell’ordine di sfruttare quei dati per risolvere un importante caso di terrorismo o il rischio che, ubbidendo alla giustizia, si crei un sistema ancora più ingiusto perché insicuro per tutti? Quanto è alto realmente il rischio che una soluzione di questo tipo, custom e pensata per un telefonino solo, diventi di pubblico dominio (almeno) tra le tante tipologie di malintenzionati (stati rivali e criminali comuni, oltre naturalmente ai terroristi) che potrebbero usarla per invece accedere ai dati su ogni telefonino?

Per Cook il rischio è massimo: una certezza. Ma è davvero così? Una soluzione specifica a questo problema equivale necessariamente a "rompere" la crittografia per tutti? A giudicare dalle reazioni alla "smentita" della Casa Bianca, sì:

Apple ha ricevuto il supporto del CEO di Google, di quello di WhatsApp, della coalizione Reform Government Surveillance e della Electronic Frontier Foundation, tra gli altri.

Resta il fatto che, di fronte alla battaglia tutta infondata dell'FBI al "going dark" (il problema di non poter leggere alcuni messaggi cifrati, più che compensato dalla mole sterminata di nuovi dati invece leggibili), ai cittadini non resta che fidarsi di un colosso privato come Apple, per sperare di vedere protetti i loro dati personali. E che mondo è, un mondo simile – si chiede la fonte del Datagate, Edward Snowden, ovvero forse colui che più di ogni altro ha contribuito a metterlo a nudo?

Altre perplessità

Ma le perplessità che fanno dubitare della bontà della decisione della corte sono molteplici. Se si obbliga Apple a creare un software appositamente per sbloccare un telefono che contenga dati necessari a un’indagine antiterrorismo, chiede Ahmed Ghappour dell'Università della California interpellato dal Washington Post, cosa vieta di imporre a Facebook di creare un algoritmo per sventare il crimine?

Se Apple avesse semplicemente ubbidito, invece, cosa impedirebbe il ripetersi in futuro di richieste simili? E al moltiplicarsi di soluzioni – pur se nominalmente ad hoc, individuali – per violare sistematicamente le protezioni crittografiche più diffuse e comuni in commercio, cosa vieta – nell’era dell’hacking e dei leak di massa – che prima o poi le "backdoor" finiscano nelle mani di malintenzionati, o semplicemente di chiunque le desideri per intenti malevoli (anche governi concorrenti, aziende, spie etc)? «Una volta sviluppato il firmware, lo si può riutilizzare su svariati telefoni. Credo questo sia un test», dice infatti Matthew Green della John Hopkins a Motherboard.

Da ultimo, come nota Jake Laperruque, per capire l'insensatezza dell'idea dell'FBI basta considerare il problema con gli occhi del cyber-criminale e non con quello delle forze dell'ordine. Così la domanda "dovreste essere in grado di mettere il vostro telefono così al sicuro da renderlo inaccessibile anche all'FBI?" diventa: "dovreste essere in grado di mettere il vostro telefono così al sicuro da renderlo inaccessibile anche a un cyber-criminale?". Quando l'hacking diventa arbitrio, la differenza tra un governo e un ladro sfuma.

E quel che resta non è che "la morte della sicurezza" informatica.

LINEE GUIDA AI COMMENTI