Post Media Literacy

IA e politica. Chi domina la conversazione sull’intelligenza artificiale

12 Novembre 2023 12 min lettura

author:

IA e politica. Chi domina la conversazione sull’intelligenza artificiale

Iscriviti alla nostra Newsletter

12 min lettura

Tra fine ottobre e inizio novembre abbiamo assistito a un climax di incontri, iniziative e dichiarazioni di policy sull’intelligenza artificiale (IA). Ordine esecutivo americano, dichiarazione del G7, AI Safety Summit in UK, mentre sullo sfondo procedono in una specie di corsa a ostacoli gli ultimi lavori dell’AI Act, l’atteso regolamento europeo sull’IA che deve chiudersi all’inizio del nuovo anno per non ritrovarsi impantanato nelle prossime elezioni europee. Non potevano mancare le Nazioni Unite, che hanno appena creato un comitato consultivo che dovrebbe emanare a breve delle raccomandazioni.

Dunque dopo la corsa a far uscire i prodotti di IA generativa e aprirli al grande pubblico (che racconto da mesi a partire da questo numero della newsletter Guerre di Rete), ora siamo allo sprint dei politici, dei diplomatici e dei loro sherpa.

L’ordine esecutivo degli USA

Iniziamo con l’ordine esecutivo di Biden, decine e decine di pagine dettagliate (qui il documento completo), seguite da un’importante guida all’implementazione da parte dell’Office of Management and Budget (ancora in fase di bozza, che può quindi ricevere commenti e feedback).

I due documenti richiedono agli “sviluppatori dei più potenti sistemi di intelligenza artificiale di condividere i risultati delle loro valutazioni di sicurezza e altre informazioni critiche con il governo degli Stati Uniti”. Ma impongono anche alle agenzie federali di sviluppare standard, strumenti e test per garantire che i sistemi di IA siano sicuri e affidabili. Di promuovere un ecosistema competitivo e aperto. E poi di proteggere i cittadini dalla discriminazione algoritmica, o dalla violazione della privacy; e i lavoratori da possibili impatti negativi. Oltre che dare linee guida chiare agli uffici federali per gestire e utilizzare prodotti e servizi di IA.

L’ordine esecutivo arriva a utilizzare il Defense Production Act dell'epoca della guerra di Corea, “un atto tipicamente invocato durante le emergenze nazionali, per richiedere che gli sviluppatori di potenti modelli di base informino il governo quando stanno addestrando i modelli e condividano i risultati di tutti i test di sicurezza dei loro red team”, scrive l’ONG Epic. “Altre direttive tecniche prevedono che il NIST (ndr, l’agenzia che promuove l’innovazione) stabilisca degli standard per i test di sicurezza pre-deployment (pre-rilascio) per i modelli di base dell'IA e che il Dipartimento del Commercio sviluppi delle linee guida sul watermarking, l'autenticazione dei contenuti e altri strumenti di etichettatura che le agenzie utilizzeranno per differenziare le comunicazioni autentiche del governo dai contenuti creati dall'IA”.

C’è questo e molto altro nell’ordine esecutivo, tanto che è stato accusato di inglobare un po’ di tutto, istanze diverse, della società civile e delle aziende tech, e in ultima analisi di dare un colpo al cerchio e uno alla botte (per un’analisi di questa ambivalenza, e anche dello sforzo dell’amministrazione Biden-Harris di tenere assieme sicurezza, giustizia e innovazione, rimando a un articolo di The Atlantic di due giornalisti competenti come Karen Hao e Matteo Wong).

Ma, da un certo punto di vista, il fatto di aver incluso più prospettive, a partire dalla sfera dei diritti (proseguendo la strada tracciata già dal Blueprint for an AI Bill of Rights, un documento governativo pubblicato nell’ottobre 2022 sui principi da seguire per un’IA responsabile) deve essere visto come un merito. Che si sposa a un approccio pragmatico e a tutto campo dell’amministrazione USA, specie se comparato con quanto emerso dall’AI Safety Summit in Gran Bretagna.

Il codice volontario del G7

Prima però ricordiamo che a fine ottobre c’è stato anche un forum del G7, che ha prodotto un codice di condotta volontario per fornire una guida a quelle organizzazioni “che sviluppano i sistemi di AI più avanzati, compresi i modelli di base e i sistemi di AI generativi".

Si chiama Hiroshima AI Process (dal nome della città giapponese in cui si è svolto il primo forum su questo tema) e si basa su un documento dedicato proprio all’AI generativa in cui le priorità principali per i paesi del G7 sono enunciate a chiare lettere: uso responsabile dell’AI generativa, occuparsi della disinformazione, salvaguardare i diritti di proprietà intellettuale, occuparsi di privacy e data governance, trasparenza, equità (fairness) e pregiudizi (bias), diritti umani, sicurezza e robustezza di questi sistemi, e infine il loro impatto sul funzionamento delle democrazie.

Anche qui dunque troviamo vari campi di intervento, ma anche qui riscontriamo un approccio che tiene conto di questioni molto pragmatiche, attuali e diverse.

L’AI Safety Summit in Gran Bretagna

Dal canto suo, l’AI Safety Summit di inizio novembre, voluto dal primo ministro inglese Rishi Sunak, ha in qualche modo innescato una conversazione insieme più teorica e unilaterale, inducendo una serie di soggetti attivi nel settore dell’intelligenza artificiale o in generale della tecnologia a prendere posizione e a esprimersi pubblicamente.

A livello pratico il summit di due giorni ha prodotto un impegno legalmente non vincolante da parte di alcuni big del settore (OpenAI, Google DeepMind, Anthropic, Amazon, Mistral, Microsoft, Inflection e Meta) in cui si concede ad alcuni governi (inclusa l’Italia) di testare i loro ultimi modelli per verificare la loro sicurezza e altri rischi prima che vengano rilasciati alle aziende e ai consumatori. Inoltre, un gruppo internazionale di esperti -  inizialmente presieduto da Yoshua Bengio, professore di informatica all'università di Montreal e considerato tra i pionieri del deep learning - “redigerà un rapporto annuale sui rischi in evoluzione dell'AI, tra cui pregiudizi, disinformazione e rischi "esistenziali" più estremi, come facilitare lo sviluppo di armi chimiche”, scrive il Financial Times.

The Bletchley Declaration e la sua ideologia trainante

Ma vale la pena anche qui andare a leggere le carte, ovvero il documento (policy paper) prodotto dal summit e intitolato The Bletchley Declaration. Dopo un primo tributo alle opportunità si passa ai rischi (del resto il tema del summit era la safety, la sicurezza).
Tra questi, e in generale tra le questioni che vanno esaminate, meritano considerazione la trasparenza, l'equità, l’adeguata supervisione umana, l'etica, l'attenuazione dei pregiudizi, la protezione dei dati. Una sfilza di principi molto generici e sui quali appare difficile obiettare (come obiettare alla pace nel mondo), se non fosse che è proprio andando nel dettaglio su questi temi che escono le magagne e le contraddizioni.

Dopodiché si arriva al cuore concettuale del documento:

“Particolari rischi per la sicurezza sorgono alla "frontiera" dell'IA, intesa come quei modelli di intelligenza artificiale che hanno un’ampia gamma di usi (general purpose), compresi i modelli di base (...) Rischi sostanziali possono derivare da un potenziale uso improprio intenzionale o da problemi involontari di controllo relativi all'allineamento con le intenzioni umane. Questi problemi sono in parte dovuti al fatto che queste capacità non sono pienamente comprese e sono quindi difficili da prevedere. Siamo particolarmente preoccupati da questi rischi in settori come la sicurezza informatica e le biotecnologie, nonché nei casi in cui i sistemi di IA di frontiera possono amplificare rischi come la disinformazione. Le capacità più significative di questi modelli di IA possono causare danni gravi, persino catastrofici, sia intenzionali sia non intenzionali (…). Affermiamo che è particolarmente urgente approfondire la comprensione di questi rischi potenziali e delle azioni per affrontarli”.

Intanto una breve analisi linguistica del documento. I riferimenti “IA di frontiera”,allineamento”, rischi o danni catastrofici o “esistenziali” sono segnaposti molto specifici della cartografia concettuale di una certa concezione dell’AI. Quella che sottolinea come l’intelligenza artificiale sia avviata verso la creazione di una AGI (Artificial General Intelligence), un concetto come ho raccontato altre volte in newsletter piuttosto vago ma che allude allo sviluppo di un’intelligenza complessivamente superiore a quella umana, dotata di autonomia e capacità di agire, e quindi a rischio di risultare incontrollabile. Da questo primo assunto (estremamente divisivo e contestato nella comunità di ricercatori) discenderebbe, dunque, una serie di rischi catastrofici, anzi, esistenziali, che potrebbero arrivare a mettere a rischio la stessa umanità.

In genere, chi promuove questa prospettiva appare poco interessato ad affrontare nel concreto i rischi e le questioni più di basso livello (si fa per dire, ma ovviamente di fronte al rischio estinzione è tutto di basso livello) legate alla trasparenza nell’uso dei dati e nella realizzazione dei modelli, alle violazioni della privacy, alla perpetuazione di pregiudizi e all’emergere di nuove forme di discriminazione algoritmica, al consumo di risorse, all’accentramento di questa tecnologia nella mani di poche grandi aziende, a cosa significa open source nell’IA, agli effetti di queste tecnologie (per altro ancora altamente imperfette anche in applicazioni molto limitate) nel mondo del lavoro, o della sanità, alla eventuale perdita o più probabilmente precarizzazione di posti di lavoro, alla speculazione finanziaria legata al settore e al rischio di bolla (Web3, remember?), e potrei andare avanti ancora perché le opportunità di questa tecnologia sono molte (qui nessuno le nega, a scanso di equivoci) ma le questioni da affrontare sono ugualmente numerose.

Le critiche all’AI Safety Summit

Il risultato di tutto ciò è che l’AI Safety Summit ha prodotto, come accennavo all’inizio, reazioni accese. Una parte di queste si sono rivolte verso il governo britannico, accusato di aver organizzato un incontro dominato da questa concezione di IA (che i critici chiamano AI doomerism) e intrecciata con filoni di pensiero e di lobbying che si rifanno all’altruismo efficace (un filone dell'utilitarismo diffuso tra l’università di Oxford e la Silicon Valley, da cui è ben foraggiato). Del resto, scrive Politico, il rappresentante ufficiale del primo ministro britannico per l’AI Safety Summit, è l’investitore Matt Clifford, che pur non considerandosi un altruista efficace, “sembra generalmente solidale con la loro causa”.

E prima ancora del summit, un altro articolo di Politico notava come “i consiglieri governativi più importanti che simpatizzano con le preoccupazioni del movimento (dell’altruismo efficace), insieme agli stretti contatti di Sunak con i leader dei laboratori di AI - che hanno legami di lunga data con il movimento - hanno contribuito a spingere il "rischio esistenziale" in cima all'agenda politica del Regno Unito”.

Tra questi un ruolo chiave è stato giocato da Ian Hogarth (già investitore in varie aziende di IA), che ha poi presieduto la Foundation Model Taskforce, una task force governativa. Sotto di lui la taskforce (poi ribattezzata Frontier Model, per l’appunto) ha annunciato una nuova serie di partner, alcuni dei quali hanno legami con l’altruismo efficace (cioè sono organizzazioni finanziate da donatori di quell’area). Tra queste c’è il Centre for AI Safety, il centro che ha messo a punto la famosa lettera sul "rischio di estinzione dell'AI", ben finanziato da Open Philanthropy, baluardo dell’altruismo efficace.

Ma a insistere su questi legami è un’inchiesta dell'organizzazione giornalistica noprofit The Citizen, che scrive: “Un gruppo elitario al centro della strategia britannica per l'intelligenza artificiale rischia di essere indebitamente influenzato da interessi privati”. L'organizzazione prosegue evidenziando gli investimenti da parte di soggetti come Google, DeepMind, la già citata Open Philantropy nella attività e società di diversi esponenti della taskforce governativa.

La società civile, messa da parte, si ribella

Anche Business Insider rileva che “diversi gruppi hanno criticato l'enfasi posta dal governo britannico su alcuni dei rischi più esistenziali dell'IA, mettendo in secondo piano altre preoccupazioni forse più pressanti”, e cita Merve Hickok, presidente del Center for AI and Digital Policy, secondo la quale il vertice sarebbe iniziato con un impegno condiviso con gli Stati Uniti per lavorare insieme sui valori democratici di questa tecnologia. Ma "poi, in qualche modo, dopo gli incontri del primo ministro con le aziende tech, ha iniziato a concentrarsi solo sulla crisi esistenziale così come viene definita dall’idea di un’AGI che prenda il controllo", ha dichiarato, aggiungendo che al tavolo stavano principalmente le aziende tech e che la società civile sarebbe stata messa da parte.

Nel mentre arrivava una bordata da un centinaio di ONG - incluse Amnesty International, Access Now, Privacy International - sindacati, e istituti di ricerca e policy - come l’AI Now Institute o membri dell’Alan Turing Institute - che firmavano una lettera aperta al governo dove sta scritto (neretti miei):

Le comunità e i lavoratori più colpiti dall'AI sono stati emarginati dal summit. Il coinvolgimento delle organizzazioni della società civile, che apportano una diversità di competenze e prospettive, è stato selettivo e limitato. Si tratta di un'opportunità mancata. Allo stato attuale, il summit è un evento a porte chiuse, eccessivamente incentrato sulle speculazioni sui remoti "rischi esistenziali" dei sistemi di AI "di frontiera" - sistemi costruiti dalle stesse multinazionali che ora cercano di dettare le regole”.

Chi vuole una IA aperta

Ma non era ancora finita. Sempre in quei giorni è arrivata anche un’altra lettera aperta (sulla politiche dell’IA si sta formando un epistolario che neanche Joseph Conrad), coordinata da Mozilla (la no profit dietro a Firefox e sostenitrice di vari progetti open source), e firmata da oltre un migliaio di ricercatori, attivisti e personalità del mondo tech. Ma cosa dice la lettera? Che bisogna spingere e promuovere la trasparenza così come modelli aperti di intelligenza artificiale e non modelli chiusi e proprietari, anche e soprattutto quando si parla di sicurezza:

Siamo a un punto critico nella governance dell'AI. Per mitigare i danni attuali e futuri dei sistemi di AI, dobbiamo favorire l'apertura, la trasparenza e l'ampio accesso. Questo deve essere una priorità globale. È vero che i modelli aperti e accessibili comportano rischi e vulnerabilità: possono essere abusati da attori malintenzionati o utilizzati da sviluppatori non adeguatamente preparati. Tuttavia, abbiamo visto più volte che lo stesso vale per le tecnologie proprietarie e che incrementare l'accesso pubblico e la supervisione rendono la tecnologia più sicura, non più pericolosa (...) Rappresentiamo prospettive diverse e a volte divergenti, comprese le diverse opinioni su come l'AI open source dovrebbe essere gestita e rilasciata. Tuttavia, su una cosa siamo fortemente d'accordo: approcci aperti, responsabili e trasparenti saranno fondamentali per mantenere la sicurezza nell'era dell'AI”.

Ci sono firme importanti, di peso, del mondo IA in questa lettera. C’è ovviamente Yann Lecun, Chief AI Scientist a Meta e considerato un altro pioniere del deep learning, che da tempo polemizza con i modelli chiusi e i fautori dell’AI doomerism. C’è Andrew Ng, già Google Brain, professore a Stanford, fondatore di DeepLearning.AI. C’è la nota scienziata cognitiva Abeba Birhane. C’è il tecnologo ed esperto di cybersicurezza Bruce Schneier. C’è la professoressa Melanie Mitchell, autrice di un bel libro sull’intelligenza artificiale di cui ho anche scritto nella mia newsletter e che è tradotto anche in italiano. Ex parlamentari europee che si sono occupate a lungo di tecnologia e diritti come Marietje Schaake. E molti altri.

Proprio Andrew Ng negli stessi giorni dichiarava ai media: “Ci sono sicuramente grandi aziende tech che preferirebbero non dover cercare di competere con l'open source, quindi stanno creando la paura che l'AI porti all'estinzione umana. È stata un'arma per i lobbisti per sostenere una legislazione che sarebbe molto dannosa per la comunità open source".

Chi vuole una Intelligenza Artificiale democratica e inclusiva

Ma il dibattito non si è limitato alle missive, è ovviamente tracimato sui social. Dove si è aggiunta una terza posizione (terza si fa per dire, dato che le posizioni sono tante e sfumate). Quella di persone come Meredith Whittaker, presidente di Signal e Chief Advisor all’AI Now Institute, che scrive:

Non ho firmato questa dichiarazione - ha twittato in riferimento alla lettera di Mozilla  - anche se sono d'accordo sul fatto che l'AI "aperta" non sia nemica dell'AI "sicura". Ma non posso approvare la sua premessa secondo la quale “l'apertura" da sola "mitigherà i danni attuali e futuri dell'AI", né che sia un antidoto alla concentrazione di potere nell'industria dell'AI. Questo è particolarmente vero in un ecosistema in cui il termine "aperto", nel contesto dell'AI, non ha una definizione chiara, lasciandolo in balia di abusi e strumentalizzazioni da parte di aziende come Meta (che ha firmato e sta attualmente brandendo questa stessa dichiarazione per promuovere le proprie offerte di AI fintamente "aperte")”.

Insomma, dice Whittaker, l’IA aperta, anche ammesso di essere tutti d’accordo sulla definizione, “non livella il campo di gioco nell'industria concentrata dell'IA: le risorse necessarie per creare/implementare l'IA rimangono nelle mani di poche aziende”.

E questo è solo un frammento del dibattito che si sta sviluppando. Ma mi piace concludere con il tweet di un altro ricercatore di IA:Si può essere stupiti dell'AI generativa (e dei modelli linguistici di grandi dimensioni), pur riconoscendone i limiti. Si può essere preoccupati per l'apertura di nuove superfici di attacco da parte dell'AI generativa (e dei suddetti modelli), senza però preoccuparsi di false minacce. Si può resistere sia all’hype che al doom (catastrofe). Immaginate!”

Iscriviti alla nostra Newsletter


Come revocare il consenso: Puoi revocare il consenso all’invio della newsletter in ogni momento, utilizzando l’apposito link di cancellazione nella email o scrivendo a info@valigiablu.it. Per maggiori informazioni leggi l’informativa privacy su www.valigiablu.it.

Ecco, in questa fase così turbolenta, serve resistere sia all’hype sia ai catastrofismi con un’agenda. E serve che ognuno non rinunci alla propria capacità di immaginazione, evitando di farsi dettare l’immaginario dalle priorità altrui.

Articolo pubblicato anche sulla newsletter Guerre di Rete, parte del progetto editoriale Guerredirete.it. Per iscriversi alla newsletter (gratuita) clicca qui.

Immagine in anteprima: UK Prime Minister via Flickr.com

Segnala un errore