Diritti Digitali Post

L’UE ha un piano per l’intelligenza artificiale. Buone idee ma manca il coraggio di decidere

2 Marzo 2020 23 min lettura

author:

L’UE ha un piano per l’intelligenza artificiale. Buone idee ma manca il coraggio di decidere

22 min lettura

Il piano di Ursula von der Leyen era chiaro, e chiaramente ambizioso. "Entro i miei primi 100 giorni in carica proporrò un pacchetto legislativo per un approccio coordinato a livello europeo sulle implicazioni umane ed etiche dell'intelligenza artificiale", aveva scritto la presidente della Commissione Europea nel documento programmatico introduttivo per il suo mandato, le “Political Guidelines for the Next European Commission 2019-2024” con cui aveva delineato le priorità dell'amministrazione entrante.

Pagine da cui, fin da subito, si era compreso come i temi digitali fossero ritenuti fondamentali da von der Leyen, alla pari addirittura con la questione climatica. Da cui un'ambizione perfino più ampia: "L'Europa deve guidare la transizione verso un pianeta in salute e un nuovo mondo digitale". Come? Realizzando “A Europe fit for the digital age”, un'Europa a misura di era digitale.

Uno slogan, certo, ma ugualmente degno di nota, presente com'era tra le sei "headline ambitions", cioè gli obiettivi fondamentali, dichiarate dalla Commissione. E da dove partire se non dall'AI, il tema più di ogni altro, tra quelli digitali, divenuto mainstream, a torto o ragione, e soggetto a un hype senza precedenti? Per questo, forse, l'impegno temporale, simbolico. Per questo l'idea di prevedere un primo e fondamentale passaggio in un insieme di regole specificamente dedicate allo sviluppo di una intelligenza artificiale dai "valori europei". Un'AI "degna di fiducia", "trustworthy", come secondo il lavoro pregresso degli esperti dell'High-Level Expert Group on AI.

È un primo, eclatante esempio per illustrare la logica di fondo dell'UE, l'unicità europea nell'approccio alle tecnologie digitali. Nell'intelligenza artificiale come per il quantum computing, per la blockchain come per il 5G, l'idea è infatti la stessa. Prenderne il meglio, opportunità e benefici, e insieme affrontarne i rischi, prevedendo regole che rendano le nuove tecnologie usate in Europa a misura d'uomo, sicure e insieme democratiche, rispettose dei diritti di ogni individuo e saldamente inserite all'interno di un discorso maturo e consapevole circa il bisogno che ogni tecnologia rispetti non solo la legge, ma anche i confini dell'etica e della moralità umana. Questa è l'ambizione dell'UE a guida von der Leyen, al netto delle costruzioni retoriche.

Oggi i cento giorni sono quasi scaduti, e la Commissione UE ha prodotto due documenti che dovrebbero cominciare a tradurre la visione in atto, il sogno in realtà: un White Paper sull'approccio europeo all'intelligenza artificiale e un piano strategico per l'uso dei dati in UE.

Ma se l'ambizione di fondo resta la stessa, l'idea di avere norme fatte e finite entro il termine simbolico è già svanita. L'UE, infatti, più che stabilire nuove regole getta le fondamenta per le ulteriori discussioni ancora necessarie – e di là da venire – prima che vengano scritte, prevedendo piani più dettagliati, ma futuri; e rimandando decisioni invece urgenti come quella sulla liceità degli usi pubblici (e privati) del riconoscimento facciale all'interno dei confini europei.

Quelli presentati sono risultati provvisori: un White Paper da sottoporre a consultazione pubblica fino al 19 maggio; una "strategia", e dunque "idee e azioni"; "i primi passi", si legge nel comunicato stampa di presentazione, verso il raggiungimento degli obiettivi, ancora spesso generici, ora individuati. Insomma, "si presenta una società europea" per l'era dei dati, più che un insieme di misure concrete.

L'euforia dell'inizio ha lasciato il passo alla realpolitik, gli annunci alla complessità del reale. Ed è lecito dubitare, da quanto si legge nei documenti appena pubblicati, che questa amministrazione avrà davvero la forza e il coraggio politico necessari a realizzare la rivoluzione copernicana nel mondo dei dati e dell'AI di cui ci sarebbe bisogno, e che von der Leyen continua a promettere.

Come regolamentare l'AI in Europa: un approccio basato sui rischi, ma troppo vago

Riconoscimento facciale: sarebbe vietato, ma discutiamone comunque

Sovranità tecnologica e tecno-ottimismo UE. Alle radici dell'utopia digitale di von der Leyen

Geopolitica dei dati: l'UE come alternativa modello a USA e Cina

Come regolamentare l'AI in Europa: un approccio basato sui rischi, ma troppo vago

Per rendersene conto, bisogna entrare nel cuore della proposta del White Paper sull'AI prodotto dalla Commissione Europea. Un piano il cui obiettivo è attirare 20 miliardi di euro di investimenti pubblici e privati in intelligenza artificiale l'anno, per dieci anni. E che va dalla cultura digitale e sull'AI (aumentando il pool di competenze in materia a disposizione del mercato europeo, coordinando — attraverso un vero e proprio “network” — i centri di ricerca che in UE si occupano di AI, “allineandone gli sforzi” e mirando all’“eccellenza”) ai criteri per sviluppare tecnologie a misura d'uomo.

Una risposta che si vuole flessibile, modulata sul livello di rischio presentato dalla precisa applicazione tecnologica che vogliamo esaminare. L'intento è chiaro: regole uguali per tutte le tecnologie, a prescindere dal loro utilizzo, rischierebbero di diventare troppo rigide, e ostacolare l'innovazione in Europa. D'altro canto, la mera autoregolamentazione e gli schemi ad adozione volontaria non sarebbero sufficienti a fronte di tecnologie spesso altamente impattanti sui diritti degli individui.

E allora ecco l'UE ispirarsi alla Commissione per l'Etica dei Dati tedesca, che aveva proposto un modello a cinque gradazioni di rischio (da "nessuna misura specifica" al livello di rischio 1, il più basso, al "divieto parziale o totale" al più alto, il 5) e adottare a sua volta un sistema che distingue tecnologie ad "alto rischio" e non, prevedendo due regimi regolatori completamente diversi.

Per le prime, sono previsti precisi obblighi; per le seconde, invece, la mera adesione volontaria a un sistema di certificazione di qualità dei prodotti e servizi contenenti AI a basso rischio. Le regole, detta altrimenti, devono essere "proporzionate" alla pericolosità della tecnologia a cui si applicano.

Ma di che obblighi parliamo, e per quali tecnologie? La Commissione scrive che "per i casi ad alto rischio, come per la sanità, per le forze dell'ordine o per i trasporti, i sistemi di AI devono essere trasparenti, tracciabili, e garantire supervisione umana. Le autorità dovrebbero essere in grado di testare e certificare i dati usati dagli algoritmi nello stesso modo in cui lo fanno per i cosmetici, le auto o i giocattoli. Dati "unbiased", cioè privi di errori sistematici, sono indispensabili per addestrare sistemi ad alto rischio e fare sì che funzionino correttamente, garantendo che rispettino i diritti fondamentali, e in particolare che non discriminino".

Stabilito il principio, tuttavia, se ne presentano fin da subito i problemi.

Prima di tutto, non è affatto chiaro il criterio con cui si stabilisce che una tecnologia è ad "alto rischio". Scrive Nicolas Kayser-Bril di AlgorithmWatch, per esempio, che la definizione adottata è perfettamente circolare, tautologica, e dunque non significa nulla: "gli autori del White Paper spiegano che le applicazioni che comportano "rischi significativi" in settori dove "è lecito attendersi rischi significativi" devono essere considerate "ad alto rischio"".

Più nel dettaglio, è considerata “ad alto rischio” una tecnologia che sia insieme:

1. Impiegata in un settore dove “ci si aspetta” il presentarsi di “rischi significativi”.
2. Usata in modo tale che sia “probabile l’insorgenza di alti rischi”.

Come si nota facilmente, la definizione è perfettamente circolare, ma per la Commissione costituisce comunque un duplice criterio cumulativo che dovrebbe limitare il campo di applicazione del nuovo insieme di regole. Solo quando entrambi i criteri siano soddisfatti, infatti, la norma è applicabile.

Viene poi comunque prevista eccezione per casi considerati ad alto rischio in ogni caso. Gli esempi sono l’applicazione di AI 1) nel recruiting e ogni volta siano impattati i diritti dei lavoratori, 2) per il “remote biometric identification” e per “altre tecnologie di sorveglianza intrusive”.

E qui si arriva al secondo problema, esemplificato proprio dal caso del riconoscimento facciale. È l'incapacità di decidere su una questione così pressante e cruciale a dimostrare che, nella pratica, la posizione della Commissione consente, al momento, di mantenere lo status quo, più che rivoluzionarlo.

Riconoscimento facciale: sarebbe vietato, ma discutiamone comunque

Eppure è proprio di una rivoluzione che ci sarebbe bisogno. Il riconoscimento facciale, infatti, è già oggi utilizzato da almeno dieci forze di polizia nella sola Europa. Sta entrando negli stadi, dalla Danimarca all'Italia, sotto l'egida della lotta al razzismo o per impedire ai violenti di prendere posto sugli spalti.

In Svezia si è provato ad applicarla in una scuola, per verificare la frequenza degli studenti alle lezioni, e solo una prima multa dal Garante svedese secondo il GDPR ha fermato la sperimentazione. Lo stesso è avvenuto in Francia, e anche qui solo l'attivismo della società civile e il giudizio di una Corte, informato dal parere di un Garante, ha fermato i test.

Negli USA, dove invece non c'è un equivalente del GDPR, il diffondersi del riconoscimento facciale nei campus dei college è tale da motivare una lettera aperta firmata da oltre 150 addetti ai lavori, che ne chiedono lo stop immediato per salvaguardare i diritti degli studenti: perché "non c'è un modo sicuro di usare il riconoscimento facciale".

Anche negli aeroporti è una soluzione sempre più comune, e in continua espansione. Esperimenti di cui i media parlano peraltro con toni entusiastici, dipingendo il riconoscimento facciale come insieme inevitabile e un sogno-divenuto-realtà:

C'è poi quanto stiamo scoprendo su Clearview, la app di riconoscimento facciale capace di risalire in un click a tutte le nostre immagini pubbliche per identificarci e analizzarci e definita in grado di "mettere fine alla privacy per come la conosciamo". Scoperta dal New York Times e recentemente messa a nudo da un leak pubblicato su BuzzFeed, sarebbe già in uso non solo da centinaia di agenzie di law enforcement negli Stati Uniti e in Canada (dove ha dato luogo a un'inchiesta delle autorità per la privacy locali), ma anche in oltre 50 istituzioni scolastiche, oltre che da svariate aziende ed entità private (tra cui l'NBA, alcuni casinò, catene di supermercati e farmacie, e molto altro).

Soprattutto, Clearview sarebbe stata usata o sperimentata anche in altri 26 paesi in tutto il mondo, inclusi alcuni come l'Arabia Saudita o gli Emirati Arabi Uniti dove vigono leggi discriminatorie contro le comunità LGBTQ; e inclusi diversi paesi europei, Italia compresa - tanto che il deputato Filippo Sensi, che già aveva posto precisa domanda sull'uso di Clearview da parte delle forze dell'ordine italiane in una interrogazione parlamentare senza ottenere altrettanto precisa risposta dal Viminale, ha già annunciato che riporrà la questione in un ulteriore atto di sindacato ispettivo.

Una questione anche più urgente se si pensa che Clearview ha appena subito un data breach da parte di non identificati hacker, capaci di sottrarne l'intera lista di clienti.

Difficile dire, insomma, che il riconoscimento facciale non sia già entrato sostanzialmente ovunque, e che non sia già un problema da diversi punti di vista.

Eppure, in tutto questo, che fa il White Paper della Commissione UE? Sostanzialmente, e inspiegabilmente, prende tempo.

Risultano infatti abbandonati i propositi (peraltro per nulla convinti) di stabilire una moratoria di 5 anni per l'utilizzo in luoghi pubblici di tecnologie di riconoscimento facciale, espressi in draft precedenti.

E questo nonostante tutte le argomentazioni portate dal White Paper sembrino portare proprio a quella conclusione logica: il riconoscimento facciale andrebbe messo al bando.

Prima di tutto, è la Commissione stessa a notare che questa tecnologia comporta “rischi specifici per i diritti fondamentali”: per la dignità umana, si legge, per il rispetto della vita privata e la tutela dei dati personali. "C'è anche un potenziale impatto" in termini di discriminazione e di diritti di particolari gruppi sociali, anche se come abbiamo visto l'impatto in molti casi è tutt'altro che "potenziale".

Non solo: nel Q&A fornito a supporto della documentazione pubblicata, è sempre la Commissione a sottolineare che gli usi per identificazione in remoto del riconoscimento facciale sarebbero “in linea di principio vietati”, e proprio dalla normativa UE sulla privacy.

Il White Paper è attento a separare immediatamente "autenticazione" e "identificazione", due usi che dovrebbero, di nuovo, comportare livelli di rischio diversi. L'autenticazione, infatti, è quella che si ottiene per un singolo individuo che passa ai gate intelligenti di un aeroporto, e sarebbe cosa ben diversa, nella visione del paper, rispetto all'identificazione consentita da un sistema di riconoscimento facciale per esempio usato su migliaia di persone in uno stadio.

Vestager lo aveva detto in prosa durante la conferenza stampa di presentazione del documento, sostenendo che alcuni usi del riconoscimento facciale sarebbero "harmless", innocui: per esempio, usare il proprio volto per sbloccare lo smartphone, come per FaceID, o nel caso di controlli automatizzati ai confini. Ben diversa è la questione quando invece si parla di identificazione da remoto in luoghi pubblici, aveva sostenuto Vestager, a cui tuttavia si potrebbe ribattere che nemmeno l'autenticazione è priva di profili problematici, specie in assenza di chiare regole di trasparenza circa usi e destinazioni dei dati raccolti.

In ogni caso, il GDPR renderebbe "illegale" l'identificazione da remoto tramite riconoscimento facciale. Vestager stessa lo aveva sostenuto il 13 febbraio, spingendosi fino a una dichiarazione che sembrava indicare la volontà di fermarne l'utilizzo: "ciò che diremo, con un linguaggio che parla a più livelli, è fermiamoci e scopriamo se ci sono situazioni e circostanze per le quali il riconoscimento facciale da remoto dovrebbe essere autorizzato".

"Let's pause": non molto di diverso da una moratoria. E infatti, nemmeno il tempo di scriverlo ed ecco anonimi "funzionari della Commissione" precisare a Euractiv che "questa "pausa" non impedirebbe comunque ai governi nazionali di usare il riconoscimento facciale secondo le regole esistenti".

Insomma, il riconoscimento facciale sarebbe pericoloso per i diritti di tutti, molto pericoloso per i diritti di alcuni (già discriminati e/o ai margini della società), e addirittura illegale secondo le norme della stessa UE; ma per qualche ragione non si può mettere al bando, nemmeno provvisoriamente. Ciò che invece prevede il White Paper UE è lanciare un "ampio dibattito" circa l'opportunità di questo tipo di tecnologie, lasciando che nel frattempo tutto proceda come niente fosse.

La proposta, poi, è di rendere comunque possibile l'utilizzo anche più invasivo del riconoscimento facciale, a patto che vengano rispettate determinate condizioni: deve essere debitamente giustificato, proporzionato, soggetto ad adeguate salvaguardie, e in ogni caso rispettoso dei diritti fondamentali e della dignità dell'individuo.

Ma di nuovo, in assenza di una precisa procedura per giungere a regole e sanzioni per chi le violi, e mancando una qualunque roadmap per stabilirla, quelli del White Paper sembrano più propositi retorici che la reale volontà di intervenire in un settore che sta conoscendo uno sviluppo rapidissimo, opaco e troppo spesso del tutto irrispettoso proprio delle caratteristiche che l'UE vorrebbe associate al digitale, a partire dal rispetto dei diritti e le libertà dei cittadini.

Cosa garantisce insomma che, anche una volta fatto l'"ampio dibattito" e scritte le regole, qualcuno poi le faccia rispettare davvero? La Commissione stessa sembra dubitare esplicitamente, in diversi passaggi, della possibilità di un reale enforcement. Dubbi che derivano proprio dall’opacità di cui sono ammantati molti sistemi di AI attualmente in uso: “Caratteristiche specifiche di molte tecnologie di AI, inclusa la loro opacità ("effetto black box"), complessità, imprevedibilità e parziale autonomia di comportamento, potrebbero rendere difficile verificare il rispetto di regole europee per la protezione dei diritti fondamentali, e ostacolarne una effettiva implementazione", si legge.

Il sospetto che non ci sia reale volontà di tenere sotto controllo la diffusione indiscriminata di tecnologie di riconoscimento facciale prima che sia troppo tardi non fa altro che prendere corpo leggendo i documenti ottenuti da The Intercept proprio pochi giorni dopo il lancio del White Paper UE, in cui si mostra come l'Europa stesse lavorando segretamente (pagando profumatamente note società di consulenza) per la costruzione di un database comune per i dati ottenuti tramite riconoscimento facciale da tutte le forze dell'ordine UE, pronto anche per essere connesso anche con analoghi database per quelle statunitensi.

Il che incrina anche un'altra costruzione retorica dei documenti della Commissione: quella sulla "sovranità tecnologica". Un altro pilastro dell'annunciata rivoluzione europea nel mondo dei dati.

Una rivoluzione a cui tuttavia manca una riflessione realmente sistemica sugli effetti nocivi, e realissimi, della datificazione di tutto quanto. E dire che è proprio in documenti di alto livello come questi che ci si attenderebbe una valutazione ragionata e critica circa l’opportunità complessiva di automatizzare — e dunque aprire a datafication totale — settori sensibili come la sanità e i trasporti pubblici, il welfare, i sistemi di assunzione, la valutazione dell’affidabilità creditizia, l’erogazione di diritti sociali, la possibilità di attraversare un confine o meno.

Come scrive la eurodeputata Verde, Alexandra Geese: "La strategia manca di aspetti sociali, in particolar modo l'aggravarsi di disuguaglianze sociali e la riduzione dei diritti dei lavoratori innescate dall'AI. Non c'è alcuna proposta per affrontare algoritmi che non rechino danno a un individuo ma alla società nella sua interezza".

Sovranità tecnologico e tecno-ottimismo UE. Alle radici dell'utopia digitale di von der Leyen

Ma per essere valutata davvero, la rivoluzione promessa da von der Leyen va compresa più a fondo, a partire dal suo linguaggio e dall'ideologia che incarna e trasmette. Perché quella che la presidente della Commissione UE delinea è, in questa fase, soprattutto una serie di desideri e propositi, di principi più che di regole per implementarli. Una vera e propria versione UE di un'utopia digitale adatta alla contemporaneità, che contiene un carico ideale evidente fin dall'uso proprio delle parole usate per comunicarla.

"Sono una tecno-ottimista", scrive non a caso von der Leyen nell'attacco dell'editoriale a sua firma pubblicato su diverse testate europee nel giorno della presentazione del White Paper sull'AI e della data strategy UE. La tecnologia, dice sulla base della propria esperienza nel campo della medicina, è "una forza positiva" nel mondo: basta guidarne lo sviluppo. Di per sé, infatti, non sarebbe né buona né cattiva, dice von der Leyen. "La tecnologia è neutrale, e dipende da ciò che ne facciamo", dichiara, seguita a ruota dalla sua vice, e responsabile del pacchetto digitale, Margrethe Vestager, che dice lo stesso dell'AI.

Sembra astratto filosofeggiare, e invece è la logica che informa l'intero White Paper. Solo se l'AI è neutra, impolitica, se ne possono prendere i massimi benefici e, insieme, il minimo danno. Solo se ogni effetto collaterale è sempre a una regola di distanza dal rispetto dei diritti fondamentali degli individui, e non si produce invece strutturalmente, per il solo esistere di quella tecnologia e degli squilibri di potere che naturalmente mantiene o produce, è possibile non considerare nemmeno la messa al bando – e urgente – di precise tecnologie, come per esempio il riconoscimento facciale. A questo modo non sembra esserci applicazione tecnologica radicalmente incompatibile con una società realmente libera e democratica, nemmeno quando la tecnologia finisce per consentire il controllo e l'identificazione totale, permanente, pervasiva dei cittadini.

Von der Leyen lo dice chiaramente fin dalla presentazione del documento di fronte alla stampa: l'AI va piuttosto inserita in ogni aspetto del nostro vivere sociale, e subito. E i cittadini non devono averne paura, ma fidarsi. "Vogliamo incoraggiare le nostre aziende, i nostri ricercatori, gli innovatori, gli imprenditori, a sviluppare intelligenza artificiale. E vogliamo incoraggiare i cittadini a sentirsi sicuri (confident) nell'utilizzarla". È tecno-ottimista, dopotutto.

Ma dovremmo esserlo anche noi? Davvero basta prevedere un insieme di regole, per quanto buono ed efficace, per eliminare (e retroattivamente, dato che l'AI sta già entrando in ogni cosa, senza attendere certo i tempi dell'UE) ogni rischio di discriminazione sistematica a mezzo algoritmo?

E siamo proprio sicuri che questi "rischi" non siano già oggi ampiamente diffusi, materia di esperienza più che di ipotesi speculative? In Europa, non negli Stati Uniti o nella digitalmente famigerata Cina.

Un'attenta analisi della cronaca imporrebbe cautela, più che ottimismo. Ma il White Paper della Commissione, e l'atteggiamento di fondo da cui proviene, se è particolarmente diretto nel promuovere i realissimi benefici dell'AI, è molto meno chiaro nel presentarne i pericoli come altrettanto reali e attuali, limitandosi la maggior parte delle volte a parlare di "rischi", di situazioni dove i danni sono ancora tutti "potenziali": come se non ci fossero già intere categorie sociali costrette a subire, in modo sproporzionato e sistematico, i danni di una introduzione senza regole proprio di soluzioni di automazione e intelligenza artificiale nella vita pubblica, dal welfare alla sanità e oltre.

Come se un giudice olandese non avesse già stabilito, in quella che Privacy International definisce una sentenza "storica", che il sistema di decision-making automatico SyRI, usato per scovare e combattere presunte frodi al welfare nel paese, viola la privacy dei cittadini ed è dunque illegale; meglio, è un vero e proprio "Stato di sorveglianza per i poveri", secondo l'alto rappresentante ONU per i diritti umani, Philip Alston, colpiti in modo particolare, e privi di qualunque garanzia o misura di trasparenza cui fare ricorso.

E non è nemmeno un caso isolato. Discriminazioni contro le fasce più povere della popolazione sono state riscontrate in sistemi di welfare automatizzato in diverse parti del mondo, come testimoniato da una recente serie di inchieste del Guardian intitolata, significativamente, "automating poverty": l'automazione della povertà. E dell'ingiustizia. In uno dei casi più eclatanti, un sistema adottato in Michigan dal 2013 ha prodotto, da allora, 48 mila realissime accuse di frode a titolari di misure di sostegno sociale contro la disoccupazione in cui l'ammontare di denaro richiesto, in assenza totale di intervento umano, si rivelava essere di quattro volte superiore al dovuto. Accuse inoltre errate, si è scoperto in seguito, addirittura nel 93% dei casi esaminati, perché l'algoritmo le cui decisioni hanno provocato sofferenze incalcolabili non era nemmeno in grado di distinguere tra frode ed errore in buona fede.

È un rischio "potenziale", questo? Ha senso, di fronte a situazioni simili, il semplice ottimismo?

La Commissione, per esempio, mostra una fiducia incrollabile nel fatto che l'AI sia parte della soluzione, e non del problema, nella questione climatica. Il White Paper ne parla addirittura come di un "critical enabler", un fattore abilitante critico, per il raggiungimento degli obiettivi del Green Deal europeo, quando invece una delle domande che sempre più si fa largo in letteratura e non solo riguarda proprio la sostenibilità ambientale dell'era dei Big Data e dell'AI, con blockchain e 5G maggiori indiziati nell'aumentare ancora a dismisura i consumi.

È di giugno 2019, per esempio, uno studio che sostiene che addestrare gli algoritmi di un singolo modello di AI può giungere a comportare emissioni paragonabili a quelle di cinque autovetture durante tutto il corso della loro esistenza in funzione. Quanto alle criptomonete, una singola transazione in bitcoin costa più energia di quella consumata da una abitazione media in Canada durante l'arco di un mese.

Insomma, siamo proprio sicuri che non sia il caso di studiare l'impatto ambientale di una società, europea o meno, interamente "intelligente" ora, prima che la si sia già implementata grazie al nostro incrollabile tecno-ottimismo, e sia dunque troppo tardi per intervenire drasticamente, se necessario?

Macché. Obiettivo dichiarato del White Paper è infatti “accelerare l’adozione di soluzioni basate sull’AI”. Con punte di quello che Shoshana Zuboff chiamerebbe "inevitabilismo", e noi tutti "determinismo", che fanno sembrare il passaggio all’AI in ogni cosa necessario e inevitabile, più che prodotto dalla volontà umana e politica, per esempio dell'UE, di metterla al servizio dell’individuo e della società. "È essenziale", si legge infatti, "che le amministrazioni pubbliche, gli ospedali, i servizi e il trasporto pubblico, i supervisori finanziari, e altri settori di pubblico interesse comincino ad adottare rapidamente prodotti e servizi che si basano sull'AI per il loro funzionamento".

"Essenziale". "Rapidamente". Non esattamente il lessico di chi accetta domande fondative. Anzi: "Un focus specifico dovrà essere in settori come la sanità e i trasporti, dove la tecnologia è matura per un impiego su larga scala".

Non è tuttavia chiaro perché, necessariamente, un prodotto o servizio aumentato dall'AI dovrebbe essere migliore, sempre e comunque, di uno che non ce l'ha. Non era "neutra", la tecnologia? Ora è inevitabilmente buona? E i rischi?

La risposta di von der Leyen segue i canoni tipici del populismo: bisogna mettere "prima le persone" ("people first"), dice, echeggiando un antico motto di Mark Zuckerberg. Perché quando si mettono "prima le persone", rispettarne i diritti diventa una conseguenza logica.

"L'intelligenza artificiale deve servire le persone", dice la presidente della Commissione UE, "e dunque l'intelligenza artificiale deve sempre rispettare i diritti delle persone".

Ammesso sia poi tecnicamente possibile avere davvero insieme la massima implementazione di AI, e nessun danno. E che sia possibile individuare e sanare le situazioni in cui gli effetti negativi vengono già patiti oggi.

Non appena si scavi sotto la superficie della retorica adottata dalla Commissione, insomma, si scopre che la visione del rapporto tra tecnologia e potere che viene sottesa è piuttosto debole, molto decisa sull'adozione di soluzioni favorevoli per il business, e molto incerta nel fornire ai cittadini reali modalità di comprendere e contenere i rapporti e le asimmetrie di potere che tecnologie come l'AI creano e perpetuano.

Anche per questo, tuttavia, von der Leyen ha una risposta: la "sovranità tecnologica". È questo fondamentale aspetto della rivoluzione UE sull'intelligenza artificiale e il digitale in genere che deve inevitabilmente renderci "ottimisti". Scrive von der Leyen nel già citato editoriale: "la sovranità tecnologica (...) descrive la capacità di cui l'Europa deve dotarsi di fare le proprie scelte, sulla base dei propri valori, rispettando le proprie regole. È questo che contribuirà a fare di tutti noi dei tecno-ottimisti".

Nella sua Agenda for Europe, la presidente della Commissione UE aveva già precisato che "non è troppo tardi per raggiungere la sovranità tecnologica in alcune aree critiche", identificandole nella blockchain, nel quantum computing, negli "algoritmi e strumenti che consentono la condivisione dei dati e il loro uso". "Definiremo insieme standard per una nuova generazione di tecnologie", aveva annunciato von der Leyen, "che diventeranno la norma a livello globale".

Sarà questo il marchio di fabbrica delle tecnologie UE, esportabile e riconoscibile ovunque. In quanto europea, l'AI dovrà diventare necessariamente "trustworthy", i prodotti e i servizi basati sui dati sicuri, le basi di dati su cui saranno addestrati gli algoritmi europei prive di bias, il loro funzionamento non più opaco ma trasparente e spiegabile. L'UE, insomma, deve diventare il sinonimo di uno sviluppo tecnologico intelligente "umanocentrico", a misura di democrazia e diritti individuali e sociali. Di questo, l'UE deve diventare il modello a livello globale, come già per le norme in materia di privacy con il GDPR.

Geopolitica dei dati: l'UE come alternativa modello a USA e Cina

Sovranità tecnologica come necessità e opportunità storica, insomma, ma anche come posizione geopolitica, per distinguersi (e proteggersi) dalla colonizzazione dei giganti di Silicon Valley e dunque dalla logica del puro profitto, da un lato, e da quella della repressione sociale personalizzata di massa di Pechino, dall'altro. Contro la mera espressione del "capitalismo della sorveglianza" senza regole e dell'autoritarismo digitale più feroce, l'UE mira a dipingersi geopoliticamente come l'alfiere dei diritti umani e della democrazia, dell'etica e della giustizia sociale, anche se automatizzata.

"Sovranità tecnologica" significa dunque, e di conseguenza, mettersi anche al riparo dalle indebite ingerenze di entrambi i rivali geopolitici. Sviluppare infrastrutture e soluzioni proprie, per lo scambio e la gestione dei dati prodotti in Europa. È qui che si inserisce la necessità di una "strategia per i dati". Non è un caso che le posizioni di Francia e Germania vadano da tempo in questa direzione. L'Atlantic Council ricorda per esempio che sia Angela Merkel che Emmanuel Macron hanno si sono di recente "espressi in favori di sforzi per sviluppare "campioni europei" come alternativa ai fornitori di servizi cloud statunitensi". "La battaglia che stiamo combattendo è per la sovranità", aveva detto Macron in un'intervista a Radio France International lo scorso settembre, pena il vedersi "dettare le scelte" in materia di digitale e AI da "altri"; e Merkel aveva echeggiato gli stessi concetti, parlando di "dipendenze digitali" dagli Stati Uniti.

Viene il sospetto, titola Politico Europe, che si tratti di "protezionismo in tutto tranne che nel nome". Ma è proprio per fugare i dubbi che l'UE ha pubblicato anche "A European Strategy for Data". Un documento di 35 pagine con cui l'UE mette nero su bianco l'intenzione di creare le proprie infrastrutture, i propri “data spaces”: soluzioni cloud e di governance dei dati, a partire dalla loro reale interoperabilità, che siano prettamente “europee”, rispecchiandone i valori e l’orientamento più generale alla “trustworthiness” e all’eccellenza.

Anche qui, l’assunto è che da più dati derivino decisioni migliori. "Le misure esposte in questo paper", si legge, "contribuiscono alla creazione di un approccio complessivo alla data economy con l'obiettivo di incrementare l'uso, e la domanda, di dati e prodotti e servizi resi possibili dai dati in tutto il Mercato Unico". A questo modo, “l'UE può diventare il modello per una società che attraverso i dati prende decisioni migliori – nel mondo degli affari come nel settore pubblico". Perché "sono i dati la linfa vitale dello sviluppo economico". Uno sviluppo inteso in un modo ben preciso: quello di un'economia "data-agile", capace di mettere a frutto le moli sterminate, e comunque crescenti, di dati prodotte da ogni cosa e persona, e di farlo insieme in modo sicuro, etico, democratico.

Ed è qui che l'UE marca esplicitamente le sue distanze geopolitiche: "competitor come la Cina e gli Stati Uniti stanno già innovando rapidamente e progettando le loro nozioni di accesso ai dati e uso dei dati in tutto il mondo. Negli USA, l'organizzazione dello spazio dei dati è lasciata al settore privato, con considerevoli effetti di concentrazione di potere. La Cina presenta una combinazione di sorveglianza governativa e forte controllo dei colossi tecnologici su quantità enormi di dati senza sufficienti salvaguardie per gli individui". Per questo serve una terza via, quella europea, in cui i dati possano circolare sì liberamente, ma nel rispetto di "elevati standard in termini di privacy, sicurezza, ed etica".

Interessante, per esempio, il discorso sull’importanza della correttezza delle basi di dati su cui vengono addestrati gli algoritmi usati in UE. Ed è importante che metodi adottati, caratteristiche fondamentali delle basi di dati utilizzate, e in certi casi perfino le basi di dati stesse debbano essere immagazzinate per un tempo ragionevole e rese disponibili alle autorità che dovessero farne richiesta per gli usi consentiti nei tempi stabiliti.

Da ultimo, anche l’idea di fornire trasparenza circa l’essere un bot o un umano dell’entità con cui un cittadino UE interagisce online può contribuire a rendere più chiaro lo spazio di discussione pubblica digitale.

Ma se l'obiettivo è "incrementare la sovranità tecnologica" per tecnologie abilitanti e cruciali per l'economia dei dati, per esempio tramite la creazione di "European data pools" governati da regole e criteri tutti europei, il rischio è la frammentazione, l'isolamento tecnologico. Quella che alcuni chiamano “balcanizzazione di Internet”, in cui ogni Stato finisce per gestire e regolare i propri dati a modo proprio — dando per esempio carta bianca ai paesi autoritari, da Russia e Cina in giù, che volessero creare "spazi di dati" tutti interni. In Russia, il rifiuto di detenere dati russi nel paese ha già portato alle prime multe.

Quanto al concetto di "data-agile", è la stessa Commissione a scrivere che i dati prodotti a livello globale passeranno dai 33 zettabyte del 2018 ai 175 stimati per il 2025. Se si pensa che già oggi l'80% dei dati prodotti non viene sfruttato, è ragionevole pensare che ne servano infinitamente di più, e che sia possibile gestirli in modo democratico e rispettoso dei diritti di tutti? Siamo sicuri che sia possibile mantenere insieme una società sempre sorvegliata tramite strumenti come il riconoscimento facciale e una società libera? A che punto l'indigestione di dati diventa letale per il corpo democratico? Questo framework previsto dall'Unione Europea contempla anche solo una domanda così radicale?

Dalla lettura dei suoi primi due documenti strategici, non si direbbe.

Immagine in anteprima via Pixabay.com

Iscriviti alla nostra Newsletter

  Consenso all’invio della newsletter: Dai il tuo consenso affinché Valigia Blu possa usare le informazioni che fornisci allo scopo di inviarti la newsletter settimanale e una comunicazione annuale relativa al nostro crowdfunding.
Come revocare il consenso: Puoi revocare il consenso all’invio della newsletter in ogni momento, utilizzando l’apposito link di cancellazione nella email o scrivendo a info@valigiablu.it. Per maggiori informazioni leggi l’informativa privacy su www.valigiablu.it.
Segnala un errore