
Quali sono i limiti dell’intelligenza artificiale? Cosa distingue fondamentalmente le macchine dagli esseri umani? Ci sono modi per scoprire se chi ci sta parlando è un robot o un umano? Ci sono strade per imitare meglio il funzionamento del cervello umano?
A queste e altre domande abbiamo provato a rispondere con Andrea Moro, uno dei massimi esperti internazionali nel campo della neurolinguistica, romanziere, noto per i suoi studi sull’origine biologica del linguaggio e sui cosiddetti “confini di Babele”: i limiti universali che rendono alcune lingue semplicemente impossibili per il cervello umano.
Per spiegare questa relazione profonda, Moro ha coniato l’espressione “la carne si è fatta verbo”, ribaltando l’idea che il linguaggio sia solo un software da caricare sull’hardware costituito dal cervello. Il suo lavoro è oggi cruciale per comprendere il ruolo – e i limiti – dell’intelligenza artificiale. Se, come dimostrano i suoi studi, la mente umana non si limita a imitare schemi appresi ma è biologicamente orientata verso strutture gerarchiche complesse, allora anche l’AI più avanzata si troverà di fronte a un confine: quello che separa la simulazione dalla comprensione. Insomma, esistono confini che nessuna macchina può superare, perché legati alla nostra struttura neurocognitiva.
Questa intervista con Key2people ci offre l’occasione di gettare luce sull’Artificial Intelligence da una prospettiva inedita: interrogarsi non solo su che cosa l’intelligenza artificiale può fare, ma anche su che cosa noi siamo e cosa ci rende insostituibili.
La prima inquadratura di Blade Runner è un interrogatorio sull’anima: un test che cerca, negli occhi, la differenza fra uomo e macchina. Da quarant’anni quella scena ci ricorda che la vera questione non è la potenza delle macchine, ma i confini che le separano da noi. È un punto che Andrea Moro scioglie a partire dal linguaggio: «All’origine, dato il significato in inglese di intelligence, artificial intelligence poteva significare un centro di raccolta affidato alle macchine: dati presi più rapidamente e in modo sistematico». Nessuna promessa di androidi consapevoli: solo una delega tecnica a dispositivi veloci.
La storia della civiltà è una sequenza di “artifici” che portano peso al posto nostro. La locomotiva come carrozza artificiale, la stampa come scrittura artificiale, l’aratro — per usare la sua battuta — «come una zappa artificiale». Ogni volta abbiamo tracciato un limite: allo sforzo fisico, al tempo della copia, alla fatica del solco. È dentro quei limiti che nasce la produttività. Quando però chiamiamo “intelligenti” le macchine, la lingua ci gioca un tiro: traslochiamo parole pensate per l’umano (intenzione, coscienza, creatività) su oggetti che non ne hanno. «Se l’intelligenza è la soluzione di un problema, mi chiedo: di quale problema è soluzione una poesia?». Il paradosso è utile: ci obbliga a distinguere tra calcolo corretto e significato.

La domanda economica è concreta: quale guadagno avremmo se l’AI adottasse alcuni limiti umani? Con la Generative AI il paradigma è cambiato: non solo efficienza, meno tempo dedicato all’analisi dei dati e più affidabilità, ma anche migliore qualità complessiva del lavoro, la possibilità di generare nuovi prodotti e servizi, di aprire mercati inediti. Sul piano culturale significa anche evitare l’illusione che il “più” (più grandezze, più esempi, più potenza) coincida sempre con il “meglio”. La produttività, spesso, è una geometria di vincoli ben disegnati
Fra tutte le manifestazioni della mente, il linguaggio è il confine più netto tra noi e gli altri animali. Non perché gli animali non comunichino, ma perché solo l’uomo sa creare significati nuovi, ricombinando gli stessi elementi. “Caino uccise Abele” non è “Abele uccise Caino”: basta spostare l’ordine delle stesse parole e cambia il mondo che la frase disegna. Per secoli abbiamo creduto nell’idea di Babele come variabilità senza limiti; la linguistica del Novecento ha mostrato il contrario: “Le lingue non possono variare indefinitamente”
Il gruppo di ricerca di Andrea Moro ha messo questa intuizione alla prova provando che è vera sulla base di motivi neurobiologici. Lo ha fatto costruendo “lingue impossibili”, con regole che nessuna lingua naturale accetta (per esempio imporre a una parola una posizione fissa nella frase, o capovolgere l’ordine di tutte le altre per negare). Risultato: «Quando i cervelli umani apprendono lingue impossibili non si attiva il circuito naturale delle lingue umane». Il nostro cervello rifiuta certi schemi perché eccedono la sua architettura. È un limite, sì, ma è il limite che rende l’apprendimento sorprendentemente efficiente.
Qui arriva il primo punto di produttività per l’AI: i bambini, esposti a pochi esempi e spesso imperfetti, acquisiscono due grammatiche complete in pochi anni; i modelli statistici, privi di vincoli, chiedono miliardi di occorrenze. «Dare alle macchine istruzioni che rispettino i confini del linguaggio le renderebbe molto, molto più rapide e ridurrebbe il numero dei dati necessari». In altre parole, fissare frontiere non è frenare: è restringere lo spazio di ricerca, tagliare il rumore, alzare la resa. I transformer hanno mostrato che cambiare architettura conta più del puro volume: quando il vincolo è ben progettato, il salto di qualità arriva.

C’è anche una seconda lezione: il cervello non “installa” lingue dall’esterno come software su hardware neutro; «la struttura stessa del cervello contiene istruzioni che gli permettono di tirar fuori tutte le grammatiche: è, per citare al contrario la Bibbia, “la carne che si è fatta verbo”». Lo conferma la neurofisiologia dello sviluppo: alla nascita esplodono le connessioni tra neuroni, poi inizia una potatura selettiva. «Apprendere non vuol dire aggiungere cose ma consiste invece nel potare: è un apprendimento per dimenticanza». Anche qui il limite — eliminare, restringere, scegliere — è la fonte dell’efficienza. Se un bambino dovesse imparare come un sistema statistico, servirebbero secoli per arrivare a balbettare una frase.
Torniamo a Blade Runner: il test Voight-Kampff cerca la scintilla emotiva che un replicante non sa imitare. Nella realtà bastano prove più elementari. «Le macchine non sanno mentire», dice Moro. Possiamo programmarle a dire il falso quando piove o il vero quando non piove, ma non è menzogna: è obbedienza a un’istruzione. Mentire implica volontà, scopo, responsabilità; categorie che non si compilano. Questo dettaglio filologico ha un peso pratico enorme in cybersecurity: i sistemi possono essere perfetti come procedure, ma la minaccia nasce da intenzioni. Una macchina può fallire; non può tradire. Il rischio, la colpa, il dolo restano umani — e dunque l’analisi del rischio non può delegare all’AI l’attribuzione di intenzioni.
La stessa asimmetria si vede nella creatività. «Se dai tutte le parole dell’italiano a una macchina e le chiedi miliardi di combinazioni, prima o poi esce anche M’illumino d’immenso (il capolavoro di Ungaretti). Ma non per volontà: la macchina non saprebbe distinguere questa frase come portatrice di significato». Moro usa l’immagine del caleidoscopio: giri il tubo, i vetri colorati producono disegni bellissimi, ma non “vogliono” produrli. I modelli statistici del linguaggio fanno questo: ottimizzano probabilità, sono caleidoscopi di parole Eppure noi non ci limitiamo a combinare; attribuiamo senso. «Le parole sono archivi di esperienza: pane, caldo, amico evocano mappe diverse in ciascuno, ma abbastanza condivise da capirci». Il significato nasce nell’attrito fra biografia e regola, non dal conteggio di occorrenze.
Ecco allora il nodo: senza attribuzione di significato da parte dell’uomo non c’è vero cambiamento. Un algoritmo può individuare pattern in azienda, ma solo una leadership che capisce che cosa quei pattern vogliono dire nel proprio contesto può cambiare processi, obiettivi, responsabilità. L’AI non toglie lavoro al giudizio: lo rende più urgente. Dunque ci sono confini tra l’umano e l’AI che non saranno mai valicati? Moro ci risponde, «io la parola mai non la uso», ma ci sono confini che non si oltrepassano semplicemente sommando dati. A che serve un motore che vede tutto se nessuno decide dove andare?

E ancora: i clinici mostrano che le lingue occupano reti in parte distinte del cervello; un danno fisico può cancellarne una e risparmiarne un’altra, e il bilinguismo precoce sembra ritardare la manifestazione di alcuni sintomi cognitivi. È un indizio potente: il linguaggio non è un dizionario, è un sistema vivo, con ridondanze e vie alternative. In sicurezza informatica lo chiamiamo “resilienza”: ridondanza consapevole, non copia cieca. È un’altra forma di limite ben disegnato.
Arriviamo ai confini ultimi, quelli che il cliente chiede di illuminare con chiarezza. Il primo è la menzogna: senza volontà non c’è inganno, senza inganno non c’è colpa. Nelle pratiche di cybersecurity questo significa che l’AI può sorvegliare, correlare, prevedere; non può assumersi — né sostituire — la responsabilità morale di un atto. Il secondo è la fantasia intesa come ricombinazione finalizzata. «Gli animali hanno parole o equivalenti di parole, ma non sanno ricombinarle. Hanno dizionari di frasi fatte, non hanno la fantasia», nota Moro; e le macchine, quando sembrano averla, ne mostrano solo l’ombra statistica. Si può ottenere un esito bellissimo per caso; non è la stessa cosa che volerlo.
È qui che si misura anche il vantaggio competitivo dei limiti. Se ai sistemi imponiamo vincoli ispirati alla biologia del linguaggio — regole sull’ordine, dipendenze a lungo raggio, strutture ammissibili — restringiamo lo spazio di ricerca e dunque i costi: meno dati per addestrare, risposte più veloci, inferenze più robuste. Nelle organizzazioni, questo si traduce in processi più leggeri e risultati più spiegabili. La trasparenza non è solo un requisito etico; è un moltiplicatore di produttività, perché riduce l’attrito decisionale.
C’è poi un guadagno culturale: smettiamo di chiedere all’AI di “pensare”, e le chiediamo di “aiutare”. Turing provocava: "tra cent’anni diremo che le macchine pensano perché avremo cambiato il significato del verbo". Moro suggerisce che la stessa cosa può valere se al verbo pensare sostituiamo parlare. Possibile. Ma il punto non è il nome: è l’uso. Ricorda, ancora, come da sempre gli esseri umani cerchino di ridurre fatica e noia: la stampa come l’aratro ne sono un esempio. D'altronde, una locomotiva non è un cavallo, una stampante non è un monaco, un aratro non è un contadino; nessuno pretende che lo siano. Sono strumenti potentissimi proprio perché limitati a fare bene una cosa. L’AI non fa eccezione: se le daremo limiti chiari, diventerà un artificio utilissimo; se le chiederemo di essere “come noi”, perderemo tempo e senso.

La lezione finale rimanda ancora a Blade Runner. Lì un test cerca emozioni per stabilire l’umanità di qualcuno. Oggi sappiamo che l’unità di misura più affidabile non è l’emozione, ma il limite, il confine, come i confini di Babele per il linguaggio: la limitazione che impedisce di disperdersi in combinazioni infinite e permette di apprendere e concentrarsi. È ciò che capita ad ogni bambino quando si potano connessioni sinaptiche durante l’apprendimento spontaneo del linguaggio; simile, eppure diverso, è il gesto che un’impresa compie quando decide le regole di un modello: cosa può dire, cosa non può mai dire, a quali segnali deve dare più peso. I confini giusti non rimpiccioliscono il mondo: lo rendono abitabile.
«Io non so se le macchine avranno mai coscienza, non so nemmeno definirla», ammette Moro con onestà. «Ma so che senza volontà non si mente e senza fantasia non si crea». E forse è sufficiente: in quell’interstizio sta la nostra responsabilità. Delegare alle macchine raccolta, calcolo, traduzione — benissimo. Tenere per noi l’attribuzione di significato, la decisione, la colpa e il merito — doveroso. Non dobbiamo temere le innovazioni, una volta che ci siamo resi conto che sono dei prolungamenti della nostra volontà e dei modi, appunto, per risparmiare tempo e fatica e noia. È sempre stato così, dall’aratro in poi. E continuerà a esserlo anche nell’epoca che sfrutta ciò che, per comodità di linguaggio o per pigrizia, abbiamo chiamato “intelligenza artificiale".
Accademico dei Lincei (la più alta onorificenza accademica in Italia), professore ordinario di linguistica generale presso lo IUSS di Pavia e l Scuola Normale Superiore di Pisa. Andrea Moro ha collaborato a lungo con Noam Chomsky, con il quale ha scritto vari articoli e un saggio, I segreti delle parole (2023), e ha condotto esperimenti fondamentali che dimostrano l’esistenza di limiti biologici all’apprendimento del linguaggio, contribuendo a definire il rapporto tra linguaggio e cervello (Parlo dunque sono 2024, Le lingue impossibili 2026). Ha esordito nella narrativa con il romanzo Il segreto di Pietramala con il quale ha vinto il premio letterario internazionale “Flaiano” nel 2018. Il suo secondo romanzo si intitola Cinquantun giorni (2024).