Diritti Digitali Podcast Post

È l’Unione Europea il modello globale per una Rete di tutti?

3 Giugno 2022 8 min lettura

author:

È l’Unione Europea il modello globale per una Rete di tutti?

Iscriviti alla nostra Newsletter

7 min lettura

L'ospite del quinto episodio di ‘La Rete è di tutti’ — il format di Valigia Blu per discutere e immaginare insieme un futuro tecnologico a misura di uomo, diritti e democrazia – è Brando Benifei, eurodeputato del Partito democratico da tempo impegnato su alcuni temi fondamentali per le politiche tecnologiche. Benifei è co-relatore del Parlamento Europeo per l’AI Act, un pacchetto normativo estremamente ambizioso — e unico finora nel suo genere — che mira a dare una definizione e regole rigorose per lo sviluppo dell’intelligenza artificiale in Europa. 

Uno sviluppo che si vorrebbe con le persone al centro (“people first”), per una tecnologia che consenta all’Unione Europea di essere all’avanguardia nei mercati dell’innovazione (e nei suoi usi pubblici, dall’amministrazione pubblica alle forze dell’ordine) e allo stesso tempo “trustworthy”, cioè meritevole della fiducia di chi la usa. 

È una via mediana difficile, tra due orientamenti fondamentali: quello pro-business, che mira a facilitare l’innovazione e la sperimentazione di nuove tecnologie, per affollare nuovi mercati con prodotti e servizi a base di AI; e quello derivante dal fronte dei diritti e della democrazia, sempre più messi a repentaglio dagli abusi di sistemi opachi, sviluppati e usati in contesti pieni di vuoti normativi, e dunque proni a mutarsi in strumenti di sorveglianza indiscriminata, o di violazione della privacy degli utenti. 

Soprattutto, è una via sempre più difficile ora che i confini ritornano prepotentemente sulla scena geopolitica. La guerra in Ucraina, ma già anche la gestione frammentaria e a tratti contraddittoria della pandemia in diversi contesti e paesi, anche all’interno dell’UE, ha dimostrato come regolare gli impatti sociali e politici delle nuove tecnologie — una questione per eccellenza globale, trans-nazionale, dato che hanno invaso le vite dei cittadini di tutto il globo — sia oggi invece una questione di geopolitica tra nazioni, o comunque non più globale ma nazionale, spezzettata da muri ideologici e, sempre più, fisici. 

Si è fatto un gran parlare del concetto di “sovranità digitale”, in senso positivo (l’UE, si è detto, deve gestire i propri dati in autonomia, secondo proprie regole, così da non essere sottomessa ad abusi da parte di regimi democratici e non con regole più lasche), ma oggi sembriamo finiti vittima di incrociati e contrapposti desideri di “sovranismo digitale”, in cui la gestione delle nuove tecnologie diventa strumento di lotta geopolitica, di manipolazione del consenso fuori e dentro i propri confini. “The era of borderless data is ending”, ha recentemente scritto il New York Times: l’era dei dati senza confini è finita. 

Insomma, il compito del legislatore che tenti di sbrogliare la matassa indicata dal nostro podcast, cioè il governo della Rete e dell’AI, è se possibile ancora più complesso di prima.

Cerchiamo, con Benifei, di fare chiarezza sulla strada percorsa finora, e su cosa ci attende, per arrivare alla destinazione che tutti speriamo di raggiungere: un mondo in cui le nuove tecnologie che fanno del bene alla democrazia sono adottate a pieno e nel migliore dei modi, e in cui le altre — quelle che alla democrazia fanno male — sono invece effettivamente messe al bando, vietate. 

Queste le domande e i temi a cui l’eurodeputato ha risposto nel corso della nostra conversazione:

— A che punto siamo nella stesura e implementazione del cosiddetto “AI ACT”? Di cosa parliamo, in sintesi, e più precisamente di cosa stiamo parlando adesso?

— La società civile sembra avere accolto con moderato favore il recente rapporto scritto da Benafei insieme al collega Dragos Tudorache. Le ONG al lavoro sulla difesa dei diritti digitali, ho letto, scrivono che il rapporto:

  • Mantiene, come originariamente, una definizione di AI più ampia rispetto a quella proposta, per esempio, da Axel Voss, che avrebbe escluso dalla definizione di AI l’AI usata a scopi di “sicurezza nazionale”;
  • Include un (benvenuto) divieto di sviluppare strumenti di “polizia predittiva” a base di AI (ma, dice Edri, non li include tutti; che accade ai sistemi già in uso, come — in Italia — KeyCrime o XLaw?); 
  • Prevede nuovi obblighi per gli utilizzatori dei sistemi di AI (deployer), che dovranno comunicarne l’utilizzo alle persone su cui vengono applicati (ma questi ultimi non hanno un vero e proprio diritto a non essere analizzati da AI ad alto rischio né a una reale spiegazione delle decisioni prese da un sistema simile);
  • Prevede anche che ogni uso pubblico di un sistema AI ad alto rischio finisca nell’apposito registro (ma non include gli usi privati né i sistemi per qualunque ragione non definiti ad alto rischio, nota AlgorithmWatch). 

La società civile nota inoltre: 

  • La mancata attenzione sugli usi dell’AI, anche predittivi, in tema di migrazione, di cui scrivono Petra Molnar del Refugee Law Lab e Sara Chander di Edri, e che viene denunciata anche in una lettera aperta di 26 esperti in materia, 
  • La persistenza delle già denunciate scappatoie al divieto di riconoscimento biometrico da remoto in pubblico presenti nel testo
  • La mancata considerazione dell’impatto ambientale dei sistemi di AI che verranno usati in Europa — una questione invece a noi cara, come sanno gli ascoltatori di questo podcast. 

Concorda con queste critiche? E più in generale, come giudica il lavoro svolto per il rapporto prodotto con il collega Tudorache? Pensa che il testo abbia ancora margini effettivi di miglioramento?

— Una domanda secca. Che pensa dell’annuncio di MasterCard ha detto negli scorsi giorni che pagheremo con un sorriso o un saluto? La normativa UE di cui abbiamo discusso cambia in qualche modo lo scenario e le possibilità di utilizzo di simili applicazioni rese possibili dallo sfruttamento di dati biometrici?

— Più in generale, la Commissaria alla Concorrenza Margrethe Vestager ha affermato, introducendo la prima bozza delle norme UE sull’AI, che “non c’è posto per la sorveglianza di massa in Europa”. Ma, visto il moltiplicarsi di applicazioni dell’AI invasive quanto, se non più di, quella annunciata da MasterCard in tutti i campi della vita dei cittadini europei, è davvero così? 

— Non possiamo non parlare del tema impostosi a forza negli ultimi due mesi: l’invasione criminale di Putin in Ucraina, con tutto ciò che comporta. In questa sede, la guerra ci interessa come veicolo di cyberwar e infowar, ma anche naturalmente come momento in cui alcune tecnologie apparentemente innocue entrano invece a far parte della macchina del conflitto. 

Si pensi all’uso da parte dell’Ucraina del riconoscimento facciale di Clearview AI per identificare soldati russi e comunicarne la morte alle famiglia, al deepfake (pessimo ma significativo) di Zelensky, ma anche ai droni visti all’opera sul campo di battaglia, sempre più dotati di forme di computer vision, telecamere termiche, e intelligenza artificiale. E se i droni di cui dispone l’Ucraina vengono dalla Turchia, che ha adottato in Libia dei Kargu-2 dotati di riconoscimento facciale e completamente autonomi, la Russia ha più volte esplicitamente dichiarato di mirare all’automazione completa per i suoi armamenti intelligenti. Insomma, ce n’è abbastanza per preoccuparsi. 

La guerra poi porta più investimenti in difesa, sicurezza, e quasi sempre meno libertà: di esprimersi, criticare, ma anche di discorrere liberamente, liberi da minacce, insulti e menzogne. Come cambia, se la cambia, la politica tecnologica UE, da questo punto di vista? La guerra ha imposto nuovi tempi e priorità, o addirittura nuovi temi di importanza geopolitica, oppure no?

— Più in generale, che ruolo sta giocando l’AI nel conflitto? Abbiamo detto di Clearview AI al servizio dell’Ucraina, ma ci sono anche le mine a base di AI usate dai russi (sarebbero in grado di distinguere civili e soldati…), l’AI utilizzata dalla community dell’open source intelligence per setacciare e analizzare immagini, video e contenuti testuali liberamente disponibili online, l’AI utilizzata nei sistemi di difesa, sempre più automatizzati (quasi del tutto, si legge) o nei servizi (usati da governi e amatori indistintamente ormai) di analisi delle immagini satellitari, per ricostruire o anticipare spostamenti e strategie sul campo. 

Insomma, non ne parliamo, ma l’AI, nel conflitto, c’è. Non sarebbe dunque l'ora di mettere al bando i cosiddetti “killer robot”, cioè le armi autonome? E come si fa, dato che proprio la Russia, insieme agli Stati Uniti, è da sempre contraria? 

E ancora: che protezioni abbiamo attualmente? Per esempio, l’AI Act, anche come emendato dal rapporto di Benafei e Tudorache pubblicato lo scorso aprile, dice che il pacchetto normativo non si applica a “sistemi di AI sviluppati o usati esclusivamente per scopi militari”. Ma se l’AI Act non regolerà gli usi dell’AI visti nel conflitto in Ucraina (ammesso siano tutti sistemi “esclusivamente” sviluppati in ottica militare — Clearview AI per esempio non lo è) — cosa lo farà? 

Da ultimo, l’AI Act, nella versione modificata dal rapporto di aprile, include i “deepfakes” tra i sistemi ad alto rischio. Come si configurerebbe dunque, nella UE dell’AI Act, un deepfake come quello russo su Zelensky, per esempio? 

— Una valutazione finale. Si lotta tanto perché l’UE diventi un modello di politica tecnologica nel mondo. E in alcuni casi, dal GDPR alle norme sull’AI, sembra poterci riuscire. Su altri, tuttavia, sembrano continuare a prevalere ragioni diverse da quelle della democrazia, dei diritti e del primato delle persone sulla tecnologia. 

Penso al copyright, dove l’UE e i suoi Stati membri non riescono ad affrancarsi dai frame dettati dagli editori, anche quando sono grotteschi, auto-interessati, e sostanzialmente inutili a risolvere il problema. 

Ma ci sono continui tentativi di responsabilizzare le piattaforme al punto da renderle sceriffi di ogni contenuto ospitino — costringendole a violare le cifratura e la segretezza delle nostre comunicazioni per andare a caccia, attivamente, di materiale pedopornografico, a rimozioni istantanee o quasi dei contenuti terroristici (pena multe salatissime).

E si aggiungono continue contraddizioni tra l’intenzione di rendere la sorveglianza digitale di massa realmente incompatibile con la civiltà europea e norme che consentono o addirittura incentivano a sorvegliare digitalmente gli europei, in massa (si pensi ai buchi sulle regole per il riconoscimento facciale dal vivo), applicare pseudoscientifiche “macchine della verità” a base di AI ai nostri confini per decidere chi abbia diritto di varcarli (iBorderCtrl e gli altri progetti affini finanziati con Horizon 2020), o lasciare di fatto che l’export di strumenti di sorveglianza digitale di massa continui con regole inadatte a verificare che i malware concepiti per ragioni di sicurezza nazionale e non, come Pegasus, non diventino invece strumenti di controllo totale di capi di Stato, leader politici, giornalisti, attivisti per i diritti umani. 

Insomma, quanto deve cambiare l’UE, internamente, prima di potersi dire davvero un modello di regolamentazione degli effetti politici e sociali delle nuove tecnologie nel mondo?

Iscriviti alla nostra Newsletter


Come revocare il consenso: Puoi revocare il consenso all’invio della newsletter in ogni momento, utilizzando l’apposito link di cancellazione nella email o scrivendo a info@valigiablu.it. Per maggiori informazioni leggi l’informativa privacy su www.valigiablu.it.

Le risposte di Benifei nella nostra conversazione. Buon ascolto!

Ascolta gli altri episodi 👇

Immagine anteprima: mikemacmarketing, CC BY 2.0, via Wikimedia Commons

Segnala un errore