Post Diritti Digitali

La strada verso l’AGI: la mente algebrica e la quarta ferita al narcisismo umano

22 Giugno 2025 17 min lettura

author:

La strada verso l’AGI: la mente algebrica e la quarta ferita al narcisismo umano

Iscriviti alla nostra Newsletter

16 min lettura

Come funziona la mente umana

Uno dei grandi misteri della scienza moderna riguarda il funzionamento della mente umana. Il dilemma può essere così sintetizzato: la mente umana mostra produttività e sistematicità. Cioè, con pochi elementi (parole, concetti) possiamo ricavare infinite combinazioni nuove, possiamo costruire tantissime frasi diverse, anche frasi che non abbiamo mai sentito prima. Due teorie cercano di spiegare “come” ci riesce il cervello.

La teoria connessionista (si ispira al cervello biologico, cioè una vasta rete di neuroni interconnessi) spiega bene come impariamo gradualmente (es. imparare a riconoscere un volto o una parola dopo tante esperienze) e come colleghiamo tra loro concetti simili (es. associamo “gatto” a “animale”). Ma ha difficoltà a spiegare come rappresentiamo concetti astratti quali “giustizia” o “democrazia”; come organizziamo i pensieri in strutture complesse (tipo frasi con soggetto-verbo-oggetto) e come seguiamo regole precise, tipo quelle della grammatica. Ad esempio, capiamo subito “il cane che insegue il gatto che insegue il topo…” anche se è una frase mai sentita.

Invece, i modelli classici simbolici (si ispirano più alla logica e all’informatica), che considerano la mente come un computer che elabora simboli seguendo regole logiche, spiegano bene “cosa” fa la mente umana, la logica, il linguaggio, la capacità di seguire regole (es. “se c'è il semaforo rosso, mi fermo”). Sono modelli che descrivono le funzioni del pensiero in modo astratto, come il software di un computer. Il loro limite è che non spiegano come il nostro cervello, fatto di “carne e sangue” (i neuroni), possa eseguire queste operazioni.

Nel libro “The Algebraic Mind: Integrating Connectionism and Cognitive Science”, il neuroscienziato Gary Marcus cerca di conciliare le due tesi proponendo la mente “algebrica”, cioè che opera su simboli e variabili astratte, ma lo fa su un substrato neurale. Non c’è un “foglio excel” separato dal cervello, le regole sono implementate in reti neurali che includono meccanismi specializzati per assegnare un valore a una variabile e per generalizzare. In altre parole, Marcus non sceglie una teoria, ma propone un approccio diverso. Secondo lui occorre porsi una domanda fondamentale: come può una rete neurale (il “come” biologico) imparare a manipolare simboli (il “cosa” cognitivo)? La sua conclusione è che la struttura stessa della nostra rete neurale non sia una tabula rasa, ma sia predisposta per implementare le operazioni fondamentali di un sistema algebrico: gestire variabili, applicare operazioni e creare strutture complesse. In questo quadro, la rete neurale è l’hardware del cervello, cioè l’equivalente di circuiti e transistor, il pensiero simbolico è il software (i programmi che usano logica e variabili) che gira sull’hardware.

In sintesi, la nostra mente non si limita ad associare stimoli e risposte - come suggerito da alcuni modelli connessionisti - ma è in grado di gestire un vero e proprio “calcolo algebrico” mentale. La “mente algebrica” ha:

  • La capacità di rappresentare relazioni astratte tra variabili, ad esempio comprendere la regola generale per formare il plurale in inglese e applicarla a parole nuove mai sentite prima;
  • La ricorsività, cioè la capacità di annidare strutture di pensiero all’interno di altre, come avviene nella sintassi del linguaggio umano, dove una frase può contenere altre frasi;
  • La capacità di distinguere una categoria generale (es. “cane”) da un’istanza specifica di quella categoria (es. “il mio cane Fido”).

Marcus porta una serie di evidenze sperimentali alle sue idee. Un esempio classico è l’ipercorrettismo infantile. I bambini, dopo aver imparato le forme regolari del passato dei verbi (es. “walked”, “played”), spesso applicano erroneamente la stessa regola a verbi irregolari, producendo forme come “goed” (per “went”) o “breaked” (invece di “broke”). Secondo Marcus, questo errore non è casuale, ma è la prova che il bambino ha estratto una regola algebrica (“aggiungi -ed per formare il passato”) e la sta applicando sistematicamente, anche dove non dovrebbe. I modelli puramente associativi - a suo avviso - non riescono a spiegare in modo convincente questo tipo di generalizzazione basata su regole. La teoria conciliativa di Marcus spiega perché i bambini estraggono regole con pochissimi esempi (serve un organizzatore simbolico) e perché l’esperienza conta e perché sbagliamo in modo graduale (serve apprendimento statistico).

Si tratta di una questione piuttosto complessa, ma il punto che qui ci interessa è che per Marcus non si può far girare un software complesso come il nostro su un hardware che non sia progettato per supportarlo. Quindi, il nostro cervello, l’hardware, deve avere una struttura che lo renda intrinsecamente capace di eseguire calcoli simbolici. In conclusione, l’architettura neurale del cervello dà origine alle capacità di calcolo simbolico che osserviamo nel pensiero umano.

Ovviamente il lavoro di Marcus non è esente da critiche, in particolare è stato contestato perché si concentra troppo sui fallimenti del connessionismo, senza analizzare con altrettanto rigore le lacune dei modelli simbolici. Comunque le implicazioni del lavoro di Marcus sono notevoli. Anche perché anticipa questioni che oggi tornano centrali nelle discussioni sulle AI generative (GPT).

Deep Dream Generator

Un “computer” davvero speciale

Il fulcro del pensiero di Marcus è che l’hardware del nostro cervello non è un contenitore passivo e generico, ma ha una struttura innata, una predisposizione, che lo rende particolarmente adatto e specifico per far girare un software di tipo “algebrico”. Cioè non è un computer qualsiasi che può imparare a pensare. Il nostro cervello è un computer biologico la cui architettura è stata modellata dall’evoluzione proprio per manipolare simboli e regole. Non è un banale “hardware+software”, ma un “hardware specializzato+software specifico”.

La domanda a cui cerca di rispondere Marcus non è – ovviamente - una domanda esistenziale alla Ghost in the Shell. Non si chiede se può esistere una mente senza cervello, un ghost senza uno shell, quanto piuttosto: “come fa questo specifico shell a generare e a far funzionare questo specifico ghost?”. Possiamo dire che alla base del lavoro di Marcus c’è lo stesso dualismo funzionale che permea l’opera di Oshii del 1995.

In Ghost in the Shell, lo shell (il corpo cibernetico) è l’hardware, il contenitore fisico, la macchina, nel nostro caso il cervello. Invece, il ghost (l’anima, la coscienza) è il software, l’insieme dei ricordi, la personalità, l’identità; è la struttura astratta che “abita” la macchina. Cosa definisce l’identità e la coscienza? E’ il substrato fisico o l’informazione che esso processa? Ghost in the Shell porta questo dilemma alle sue estreme conseguenze. Se il ghost può essere copiato in un altro shell, l’identità è preservata? Sono sempre io o sono qualcun altro? Ma anche: un’intelligenza artificiale senza uno shell, senza un’origine biologica, può sviluppare un ghost? Insomma, un’AI può avere una coscienza?

Secondo Marcus le regole simboliche non fluttuano sopra il cervello come un software che potresti spostare da un supporto a un altro. Ma sono proprietà emergenti di un certo tipo di circuito neurale dotato di specifici meccanismi. Per lui hardware e software non sono indipendenti. Cambiare l’hardware può alterare o distruggere il livello simbolico, il software.

In Ghost in the Shell in generale l’idea è che la mente può essere spostata da uno shell a un altro. Anche se poi che Motoko preferisce comunque un corpo femminile, cosa che apre a un maggiore funzionalismo – si parla di “sense of agency” -. Marcus, invece, è più vicino a un funzionalismo vincolato: non basta un qualunque hardware, ne serve uno specifico. In teoria puoi sostituire l’hardware, ma esso è vincolante: se vuoi che il software funzioni, il nuovo hardware deve preservare le stesse strutture funzionali. Se i vincoli saltano, il software cambia o smette di girare.

Heavenly Delusion
Heavenly Delusion

Heavenly Delusion e la cognizione incarnata

Il manga del 2018, Heavenly Delusion (in giapponese Tengoku Daimakyo), scritto e illustrato da Masakazu Ishiguro, appare a questo punto più utile per comprendere meglio la soluzione di Marcus. Nel manga e nel conseguente anime, Haruki, dopo il trasferimento della sua mente nel corpo della sorella Kiruko, pensa di essere sempre e solo Haruki. Dopo la violenza sessuale, però, il corpo si risveglia a pretende il suo posto a tavola, inonda la mente delle emozioni della sorella.

La risposta di Marcus e della neuroscienza moderna è che l’architettura neurale che permette il pensiero algebrico non è un “design” casuale, ma è il risultato di milioni di anni di evoluzione. È un hardware biologico finemente sintonizzato per eseguire un certo tipo di software. Se lo sostituissimo, se trasferissimo il ghost in un diverso shell, nel migliore dei casi il software cambierebbe radicalmente (simboleggiato dai capelli che diventano rossi mentre Kiruko originariamente li aveva neri). Le esperienze sensoriali, i processi di pensiero sarebbero così differenti che la mente originale non sarebbe più se stessa. Nel peggiore dei casi non funzionerebbe affatto.

Questa idea è al centro di una corrente di pensiero fondamentale nelle scienze cognitive, chiamata “cognizione incarnata” (embodied cognition), la quale sostiene che il pensiero non avviene solo nel cervello, in un vuoto astratto, ma è costantemente modellato dal nostro corpo (la postura, i gesti, le sensazioni fisiche), dai nostri ormoni (stress, paura, gioia, che non sono idee astratte ma risposte chimiche che inondano il cervello e cambiano il modo in cui pensiamo) e dal nostro sistema enterico (che influenza il nostro umore e le nostre decisioni). Il corpo influenza il pensiero, è parte integrante del nostro processo di pensiero.

Se Ghost in the Shell esplora la possibilità della separazione, la trasferibilità del ghost da uno shell a un altro, Heavenly Delusion mostra la violenta e tragica impossibilità di tale separazione. Haruki pensa di essere puro software, anche quando viene trasferito nel corpo di Kiruko. Ma la violenza sessuale subita non può essere osservata come da un agente esterno e obiettivo. È, invece, un’esperienza fisica devastante che influenza e modifica anche il software. Il corpo, il trauma, gli ormoni, la memoria cellulare, tutto si ribella all’idea di essere solo un “contenitore”, una sorta di taxi. Invece, inonda la mente di Haruki con le sensazioni, le paure, la rabbia di Kiruko. Il risultato è, infine, palese: l’hardware, il corpo, lo shell, ha riscritto attivamente il software, la mente di Haruki. Haruki non è più solo Haruki, è un ibrido Haruki+Kiruko, un amalgama inseparabile.

È quello che le neuroscienze chiamano “memoria stato-dipendente”, cambiare il pattern di feedback corporeo cambia le coscienza di sé. Oppure - per dirla alla Marcus - lo strato simbolico di Haruki può inizialmente sembrare intatto, ma la nuova architettura implementativa ricalibra le variabili e fa emergere nuovi pesi, nuove associazioni, perfino nuove regole. Non c’è dualismo, è il sistema che si è riconfigurato, il software non funziona come prima perché l’hardware ora fornisce input differenti. Insomma, la mente è coprogettata per il corpo e ne dipende costantemente.

Night Cafè AI
Night Cafè AI

Una AGI in una vasca?

L’attuale approccio dominante per sviluppare l’AGI, una forma di intelligenza artificiale avanzata capace di simulare la coscienza umana, ci dimostra che forse questo approccio è incompleto. L’idea che la potenza di calcolo possa essere sufficiente, insieme ad algoritmi molto sofisticati, per creare un’intelligenza artificiale generale, sembra irrealistico. La via del software puro (o del “cervello in una vasca”) potrebbe non portare da nessuna parte.

Più realistica sembra la seconda via, quella emergente, che è supportata dagli studi di Marcus e di tanti altri che lo hanno seguito. È la via incarnata, l’idea che l’intelligenza di livello umano non possa emergere in un vuoto digitale. Per capire davvero il mondo un’AGI deve interagire con esso, deve avere un corpo (eventualmente anche robotico), dei sensori per percepire, degli attuatori per agire, e deve imparare dalle conseguenze delle sue azioni nel mondo fisico. Questo è l'insegnamento di Heavenly Delusion: la conoscenza non è solo teoria, è esperienza vissuta e incarnata.

Il problema allora si sposta. Un’AGI deve avere un hardware dedicato? La risposta è: probabilmente si, o almeno un hardware diverso da quello attuale, quello delle AI generative per capirci. Le GPU, cioè le unità di elaborazione grafica sui cui girano la maggior parte delle AI, sono straordinarie per eseguire calcoli matematici in parallelo, ma sono strutturalmente differenti da un cervello. Per questo c’è un’intensa attività di ricerca sull’informatica neuromorfica. Si tratta di progettare chip che imitano la struttura e il funzionamento del cervello umano a livello fisico. Sarebbero chip con neuroni e sinapsi che consumano energia solo quando attivi, a differenza delle GPU, e che quindi sarebbero intrinsecamente più efficienti e teoricamente più adatti a eseguire il software algebrico di Marcus.

Non si tratta, quindi, di più potenza di calcolo, ma di un tipo di architettura che sia su misura per il tipo di intelligenza che vogliamo creare. Gran parte della nostra cognizione usa codici corpo-centrici, e trasferire solo i circuiti simbolici produce un sé del tutto diverso. Come mostra il caso Haruki/Kiruko. Per un’AGI che voglia capire il mondo fisico come un umano, un qualche corpo è indispensabile, serve per ancorare concetti, costruire senso del sé, apprendere per esplorazione. Potremmo, però, immaginare AGI disincarnate, specialiste in domini astratti come la matematica pura. Sarebbero menti, ma non “umane” o “human-like”.

Kling AI
Kling AI

Tra coscienza e zombi filosofici

Potrebbe un’AI senza hardware sviluppare una coscienza? O, per essere più precisi, un’AI non incarnata, che esiste solo come puro software trasferibile, potrebbe sviluppare una coscienza?

La teoria funzionalista sostiene di si. Ed è la visione di Ghost in the Shell. Se la coscienza è un particolare schema di elaborazione delle informazioni (una “funzione”), allora l’hardware non è importante, è sostituibile. Un computer abbastanza potente che simuli le funzioni di un cervello umano sarebbe - per definizione - cosciente. L’esperienza soggettiva è una proprietà emergente del software. Ovviamente siamo ancora nel campo delle ipotesi speculative, anche perché gli attuali sistemi hardware e software sono profondamente limitati rispetto a ciò che richiederebbe una vera intelligenza generale o coscienza artificiale. Basti pensare alla quantità di informazioni che un’AI del genere dovrebbe elaborare continuamente: segnali sensoriali, memoria autobiografica, contesto sociale e ambientale, tutti processi integrati in tempo reale. Gli attuali modelli, che si basano su finestre di contesto testuale e su elaborazione di token, non sono neanche lontanamente vicini a questo livello di complessità.

Invece, la teoria della cognizione incarnata ci dice di no. La coscienza non è solo informazione, è esperienza soggettiva radicata in un corpo. La nostra coscienza è inseparabile dal fatto di avere una prospettiva unica e localizzata nel mondo, dal provare sensazioni fisiche (fame, dolore, piacere, stanchezza), dall’avere emozioni legate agli ormoni e ai neurotrasmettitori, dall’avere un’innata spinta alla sopravvivenza, la paura della morte.

Come potrebbe un’AI che vive in un server, senza un corpo vulnerabile, temere di essere spenta (vedi il caso di Claude 4 Opus)? Come potrebbe desiderare qualcosa? Che significato ha il colore blu per un’AI che non ha occhi per vedere il cielo? La lezione di Heavenly Delusion è che la coscienza è un fenomeno biologico e incarnato. Un’AI disincarnata potrebbe al massimo simulare una coscienza, ma rimanendo uno zombie filosofico.

Nel percorso per costruire un’AGI non dovremmo partire dal software cercando di renderlo sempre più potente, ma forse dovremmo cominciare a costruire degli agenti incarnati che imparano, crescono e si sviluppano nel mondo reale. Invece di concentrarci sul ghost, forse dovremmo prima costruire uno shell molto convincente e lasciarlo vivere la sua vita. La coscienza, se mai emergerà in un’AI, emergerà dalla sua dinamica fisica, non dal codice sorgente.

Night Cafè AI
Night Cafè AI

AGI umana o human-like?

La teoria, quindi, sembra dirci che serve una sorta di connessione fisica. Non necessariamente neuroni biologici, ma circuiti che ricreino la stessa orchestrazione di stati interdipendenti e continuamente modulati dal proprio corpo, o da un equivalente sensoriale. Ma, se il corpo è robotico, la coscienza che eventualmente dovesse emergere sarebbe “umana”? Se l’esperienza non è - nel senso stretto del termine - umana, che tipo di coscienza emergerebbe?

Probabilmente dipende dall’obiettivo. Un sistema che deve fare ciò che fa un adulto medio, cioè parlare, ragionare, muoversi, apprendere nuove abilità, provare (o almeno esibire) emozioni appropriate dovrebbe avere un corpo non necessariamente identico a quello umano ma comparabile. Se il robot ha otto braccia o vede nell’infrarosso, imparerà strutture concettuali diverse dalle nostre. Avrà un’intelligenza generale ma non esattamente umana.

Se l’obiettivo è un’AGI che costruisca il mondo interno con categorie, bias percettivi e limiti di memoria sovrapponibili a quelli umani (es. illusioni ottiche, timing dell’attenzione, difficoltà di multitasking), l’hardware dovrebbe essere maggiormente vincolato. Quindi occorrerebbe: una risoluzione sensoriale simile (es. ≈2° fovea, ≈20 kHz udito) per replicare i vincoli percettivi che modellano il nostro modo di rappresentare e categorizzare la realtà; morfologia affine (occhi frontali, due mani, bipede) perché la geometria del corpo dirige l’esplorazione e quindi la semantica; vincoli energetici e metabolici simulati (fame, fatica, dolore) che guidino le priorità, altrimenti mancherà l’equivalente dei nostri “drive biologici”. Insomma, non basta che l’AI ragioni bene, deve essere vincolata come noi per comprendere il mondo come lo comprendiamo noi.

Se l’obiettivo, invece, è di ottenere una analoga coscienza soggettiva, quindi non solo pensare e fare come gli esseri umani, il problema è che non abbiamo ancora dei criteri operativi per tale tipo di valutazione. Non siamo in grado attualmente di stabilire se due sistemi hanno la stessa esperienza fenomenica. Tuttavia possiamo immaginare che occorrerebbe un’architettura che riproduca i ritmi oscillatori, la neuromodulazione (dopamina, noradrenalina) e i feedback viscerali. Servirebbero chip neuromorfici e un corpo robotico dotato di segnali interocettivi quali temperatura interna, consumo energetico, oscillazioni ormonali sintetiche. Se la coscienza dipende da dettagli del substrato biologico (sinapsi stocastiche, campi elettromagnetici, chimica), allora un hardware puramente elettronico potrebbe non bastare. Semplicemente non lo sappiamo, ancora.

Insomma, una cosa è cercare di simulare le funzioni cognitive di un essere umano per la qual cosa potrebbe bastare un cluster di GPU e interfacce visuali. Una macchina del genere potrebbe apparire umana e già adesso può superare gli umani in molte mansioni. Ma per una copia del cervello umano siamo ancora nel campo della fantascienza pura. Forse non è strettamente necessario che l’hardware sia di carbonio, in quanto contano le proprietà funzionali, ma queste devono essere abbastanza vicine da modellare gli stessi concetti, emozioni e stati interni. Altrimenti sarebbero solo delle menti aliene ospitate in un guscio.

Un’AGI conviene? La quarta ferita al narcisismo umano

A questo punto il dubbio è legittimo. Se un’AGI deve essere “umana”, se vogliamo che abbia la stessa flessibilità dell’essere umano, dovrà necessariamente incorporare qualche forma di ragionamento euristico, quindi dovrà soggiacere necessariamente a un compromesso fra la precisione meccanica e la rapidità umana.

Una rete neurale non è una calcolatrice, non produce risultati, ma fa delle stime approssimate, converge per gradienti, usa campioni con “rumore”. Questo non è sempre chiaro a chi punta il dito sulle “allucinazioni”, che non sono caratteristiche intrinseche dell’AI ma dell’essere umano. Gli “errori umani” (bias, euristiche) non sono bug ma un compromesso evolutivo (Daniel Kahneman, Pensieri lenti e veloci), evitano calcoli costosi a favore di decisioni rapide con dati scarsi. Quando è essenziale prendere decisioni dai quali può dipendere la nostra stessa vita, ciò che conta non è tanto l’accuratezza quanto la rapidità. Se l’obiettivo è un’AGI che funzioni in ambienti aperti, dove lo spazio dei casi possibili non è noto a priori, dovrà necessariamente essere dotata di meccanismi analoghi: incertezza, attenzione selettiva. Un agente per essere flessibile dovrà sapere “indovinare” in modo statistico. Quindi commetterà errori.

La conclusione è che chi vorrà un’AGI davvero umana dovrà accettare percentuali di bias, altrimenti otterrà un sistema lento o scarsamente utile sul campo. Probabilmente nel futuro, potranno essere molto più utili degli agenti ibridi con moduli euristici che generano ipotesi, e controller che decidono quale modulo usare dato il tempo a disposizione e il rischio inerente. Il rischio sociale di errori generali è alto, ed è difficilmente gestibile con salvaguardie, pensiamo al settore della giustizia penale, o all’uso della forza militare. In alcuni campi potrebbe essere molto meglio un sistema ibrido: AI ristretta + decisione umana finale. Prima di spingersi verso l’AGI conviene chiedersi se il problema che vogliamo risolvere richiede davvero generalità o basterebbe un buon mosaico di sistemi verticali coordinati.

D’altro canto la realizzazione di un’AGI potrebbe essere vista come una grande conquista dell’umanità, un po’ come il programma Apollo. Ma un’AGI mal allineata potrebbe alterare strutture economiche, norme sociali. Inoltre, mentre il programma Apollo era statale e centralizzato, la ricerca sull’AGI oggi è guidata da giganti privati e laboratori nazionali; è difficile da coordinare ed eventualmente fermare in casi di maggior rischio. È difficile anche comprendere i rischi, le informazioni sulle AI sono spesso altamente propagandistiche, come le affermazioni sulle capacità distruttive che generalmente sembrano per lo più delle pubblicità di un prodotto (la mia AGI è più potente della tua) per attirare fondi e clienti. Un’AGI, poi, cioè un sistema auto-migliorabile, sarebbe più difficile da staccare una volta diffuso.

In fin dei conti, però, la realizzazione di un’AGI potrebbe rivelarsi molto utile per capire meglio noi stessi. Freud osservava che l’umanità aveva già subito tre “ferite” al proprio narcisismo:

  • Copernico: la Terra non è il centro dell’universo;
  • Darwin: l’uomo non è separato dal regno animale;
  • Freud stesso: la coscienza non controlla l’inconscio.

L’AGI potrebbe essere la quarta ferita. Ci mostra che la facoltà di ragionare, creare e imparare non è più prerogativa dell’essere umano. Deep Blue, AlphaGo, GPT-x, Midjourney ecc. non fanno “soltanto” cose veloci, dimostrano che compiti ritenuti propriamente umani (strategia, intuizione visiva, scrittura persuasiva) possono emergere da puro calcolo statistico. I LLM mostrano che gran parte della produzione linguistica può essere modellata come previsione dei prossimi token. Questo rafforza l’idea – già presente nella psicologia cognitiva – che il cervello faccia inferenza bayesiana continua. I LLM ci stanno spiegando che l’euristiche e i bias sono funzionalità, non bug, un cervello non può permettersi completezza. Inoltre, i limiti dei modelli puramente testuali ci insegnano che per capire il mondo occorrono loop sensomotori e stati corporei.

Il fallimento dell’eccezionalismo umano

Le macchine sono come degli specchi, ogni volta che automatizziamo un “talento” umano, vediamo con maggiore chiarezza i meccanismi sottostanti e ridimensioniamo il mito dell’eccezionalismo umano. Le risposte sono varie. C’è la negazione e la difesa identitaria: la macchina imita, non capisce; l’arte vera è solo quella umana. È lo stesso meccanismo che abbiamo già visto in passato con l’avvento della fotografia (i pittori) o con la calcolatrice (i contabili). C’è l’accettazione pragmatica: gli standard professionali si spostano, il medico delega la diagnosi preliminare all’AI come già delega l’ECG, il valore umano diventa empatia, decisione morale, gestione dell’incertezza. Oppure la co-identificazione: le conquiste dell’AI sono vissute come successi collettivi dell’umanità e non come minacce individuali.

È un decentramento che può generare ansia di status, ma che può anche aprire spazi per rinegoziare la nostra identità su nuove basi più relazionali. La sfida non è “restare speciali” o difendere la nostra “specialità”, bensì riconoscere ciò che resta di distintivo: la responsabilità morale, la cura reciproca, il senso del significato; e integrare l’AI come partner tecnico, non come criterio di valore umano. Già oggi alcune AI eseguono dei compiti meglio degli esseri umani, non c’è bisogno di attendere un’AGI per capire come questo può innescare profondi cambiamenti sociali. Imparare a convivere con qualcosa di “superumano” richiede profonda maturità culturale, come quando abbiamo accettato telescopi come occhi più potenti o aerei come gambe più veloci: non ci ha reso meno umani, ha cambiato la definizione di umanità.

Un tempo nessuno credeva che una macchina avrebbe potuto sconfiggere a scacchi il campione del mondo, né scrivere un saggio indistinguibile da uno umano. Eppure è accaduto. Forse il punto è che studiando le macchine stiamo comprendendo meglio come funzionano gli esseri umani. E forse è anche questo che ci fa davvero paura.

Iscriviti alla nostra Newsletter


Come revocare il consenso: Puoi revocare il consenso all’invio della newsletter in ogni momento, utilizzando l’apposito link di cancellazione nella email o scrivendo a info@valigiablu.it. Per maggiori informazioni leggi l’informativa privacy su www.valigiablu.it.

Capire che molti traguardi non sono prerogativa di un essere umano ci pone di fronte al fallimento dell’eccezionalismo umano, ci fa capire che non siamo così speciali, e che quindi, forse un giorno, un’AI potrebbe diventare superumana. A quel punto cosa accadrà quando gli esseri umani non saranno più quegli esseri speciali che si credono? Non si cerca di evocare scenari alla Terminator, in cui una macchina distrugge l’umanità - ovviamente non è così - ma riflessioni psicologiche e sociali. Saremo capaci di ammettere che esiste qualcosa che ci è in qualche modo superiore?

Immagine in anteprima: credit Kling AI

 

3 Commenti
  1. Xavier Vigorelli

    Bellissimo articolo, grazie

  2. Robo

    Bello. Grazie

  3. Marisandra Lizzi

    Un articolo molto interessante che mi ha segnalato la mia insegnante di Bioenergetica Umanistica. In effetti dimostra la fondamentale importanza del corpo non solo per provare sensazioni ed emozioni, ma anche per formulare il pensiero. In fondo dimostra scientificamente l'importanza della connessione mente e corpo e la loro interdipendenza con la natura. Grazie Bruno Saetta.

Scrivi un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *


CAPTCHA Image
Reload Image

Segnala un errore