L’industria dell’intelligenza artificiale sta scavando tra le proprie macerie per ritrovare concetti che essa stessa aveva sepolto con disprezzo. Dopo anni passati a idolatrare reti neurali e modelli linguistici giganteschi, i guru della Silicon Valley stanno riscoprendo un vecchio amore: i sistemi esperti. La stessa tecnologia che negli anni Ottanta prometteva di sostituire il pensiero umano e finì invece in una bara sigillata con l’etichetta “obsoleto”. Ora, però, le crepe nel tempio della generative AI stanno diventando visibili anche ai più ferventi sostenitori del deep learning. Il sogno dell’AGI, l’intelligenza generale artificiale, non è morto, ma ha cambiato pelle, e forse cervello.

Le profezie sull’arrivo imminente di una macchina senziente, capace di ragionare come un essere umano, sembrano oggi ingenue come le copertine di Wired del 2016. Persino i più ottimisti tra i padri spirituali dell’intelligenza artificiale, quelli che giuravano che entro il 2025 avremmo raggiunto la singolarità, hanno abbassato lo sguardo. GPT-5, pur essendo un colosso di potenza computazionale, ha mostrato i limiti strutturali della pura scala. Aggiungere miliardi di parametri non equivale ad aggiungere intelligenza. Ciò che manca non è potenza, ma comprensione. E questa lacuna non si colma con GPU più grandi, ma con un ritorno alla logica.

I sistemi esperti, cuore della cosiddetta Symbolic AI o GOFAI, si basavano su regole e conoscenze esplicite. L’intelligenza, per loro, era una questione di deduzione. Il loro fallimento fu doppio: incapaci di gestire l’incertezza e condannati da un mondo troppo complesso per essere descritto da regole statiche. L’arrivo del machine learning e delle reti neurali fece piazza pulita di quell’approccio, relegandolo a una curiosità accademica. Eppure, proprio oggi, quando i modelli linguistici si dimostrano straordinari nel generare testo ma imbarazzanti nel ragionare, la vecchia logica simbolica sta tornando a farsi sentire.

La rinascita ha un nome nuovo, più elegante e meno vintage: neuro-symbolic AI. L’idea è semplice e devastante allo stesso tempo. Unire la potenza statistica delle reti neurali, capaci di riconoscere pattern e imparare dai dati, con la precisione logica dei sistemi simbolici, che sanno inferire, spiegare e motivare. È un matrimonio tra l’intuizione e la ragione, tra il cervello rettiliano delle LLM e la corteccia prefrontale dell’intelligenza artificiale classica. Alcuni la definiscono la “seconda età dell’oro” dell’AI, altri una nostalgia travestita da innovazione.

Oggi laboratori e startup, da IBM a DeepMind, stanno sperimentando modelli ibridi capaci di integrare reti neurali con motori di inferenza logica. Il risultato non è solo più interpretabile, ma anche più robusto. Un sistema neuro-symbolic può non solo rispondere, ma spiegare perché risponde in un certo modo. In un’epoca in cui l’intelligenza artificiale viene accusata di essere una “black box” inaccessibile, la capacità di ragionare in modo trasparente diventa un vantaggio competitivo. L’interpretabilità, un tempo noiosa virtù accademica, sta diventando il nuovo oro.

Naturalmente, non tutti sono convinti che la resurrezione dei sistemi esperti porterà alla salvezza. I veterani del settore ricordano ancora l’amaro sapore dell’AI winter degli anni Ottanta, quando le promesse smisero di reggere il peso dei finanziamenti. La paura di un déjà-vu tecnologico è reale. Se i modelli neuro-symbolic non manterranno le aspettative, la delusione potrebbe essere fatale per la fiducia nel settore. Ma chi sostiene questa rinascita ribatte che il contesto è radicalmente cambiato. Abbiamo potenza di calcolo, infrastrutture cloud e strumenti di rappresentazione della conoscenza che i pionieri del secolo scorso non potevano neppure immaginare. Il problema, semmai, è culturale.

La Silicon Valley soffre di una forma cronica di amnesia tecnologica. Ogni decennio riscopre con entusiasmo idee che aveva dimenticato, ribattezzandole con nomi più cool. L’hype si nutre di cicli, e il ritorno dei sistemi esperti ne è solo l’ultimo esempio. Ma c’è una differenza sostanziale: questa volta, il revival non nasce da nostalgia accademica, ma da una crisi di paradigma. L’attuale generazione di modelli linguistici ha raggiunto un plateau. Le performance migliorano marginalmente, ma la comprensione rimane superficiale. Il cervello neurale ha bisogno di un’anima simbolica.

La spinta verso un’intelligenza ibrida non è solo un esperimento tecnico, è una necessità strategica. Se l’obiettivo è davvero l’AGI, non basta imparare a imitare il linguaggio umano, bisogna comprendere concetti, relazioni e causalità. L’uomo non ragiona solo per analogie, ragiona per inferenze. L’LLM può scrivere un saggio sul senso della vita, ma non sa perché lo fa. Il sistema esperto, per quanto rigido, sa perché deduce ciò che deduce. L’unione dei due può restituire un’intelligenza più “umana” proprio perché meno casuale.

Un’altra ragione per cui i sistemi esperti stanno tornando alla ribalta è la pressione normativa. In un mondo in cui l’AI deve essere spiegabile e conforme a regolamenti come l’AI Act europeo, l’opacità dei modelli generativi è un problema politico, non solo tecnico. Le imprese cercano soluzioni in grado di tracciare le decisioni, giustificare gli output, dimostrare coerenza logica. E qui la vecchia scuola simbolica, quella dei knowledge graph e delle ontologie, torna a essere improvvisamente sexy.

C’è un paradosso quasi filosofico in tutto questo. L’intelligenza artificiale, nata per superare i limiti umani, si trova oggi a riscoprire i principi del pensiero razionale che l’uomo aveva già codificato nei secoli. Aristotele, in fondo, fu il primo ingegnere della logica simbolica. Forse l’AGI non si raggiungerà scalando miliardi di parametri, ma tornando a quella semplicità elegante che univa linguaggio e ragione.

La storia dell’AI è ciclica, ma non è un cerchio perfetto. Ogni ritorno porta con sé una mutazione. L’attuale revival dei sistemi esperti non è un rewind nostalgico, è un tentativo di fondere due tradizioni incompatibili in apparenza. La razionalità simbolica e la fluidità neurale potrebbero insieme costruire il primo cervello artificiale davvero bilanciato, capace di intuire e spiegare, immaginare e giustificare.

Il sogno dell’AGI, quindi, non è morto. Si è solo spostato di stanza, in un laboratorio dove gli ingegneri mescolano logica formale e apprendimento profondo, come alchimisti digitali. Forse il futuro dell’intelligenza artificiale non sarà un salto quantico, ma un ritorno al passato con strumenti nuovi. Un cerchio che si chiude, o meglio, che si riapre. E chissà, magari l’AGI, quando arriverà, parlerà con la voce antica di un sistema esperto aggiornato al cloud.