Belle Marcus

In un mondo che si ostina a credere che la potenza di calcolo sia una scorciatoia verso l’intelligenza, l’idea che la vera svolta dell’AI possa arrivare dal matrimonio tra reti neurali e ragionamento simbolico appare quasi come un ritorno alle origini. John McCarthy lo aveva capito molto prima che il deep learning diventasse religione di mercato, immaginando sistemi capaci di manipolare concetti in modo rigoroso. Una visione che oggi trova nuova forza grazie alle analisi chirurgiche di Vaishak Belle e Gary Marcus, due autori che non hanno paura di puntare il dito contro il dogma dello scaling. Il loro lavoro mostra come la corsa indiscriminata al gigantismo dei modelli presenti limiti tecnici e, direi, culturali. Chi si occupa di strategia tecnologica lo vede quotidianamente: predizioni fragili, allucinazioni travestite da idee, incapacità di generalizzare al di fuori del recinto statistico addestrato. In una parola, vulnerabilità.

Sorge allora una domanda che molti fingono di non sentire. Possiamo davvero affidare processi critici a modelli che non sanno distinguere un pattern da un principio logico? Belle e Marcus rispondono con una lucidità che farebbe arrossire i fan più estremisti del deep learning. La loro posizione è netta. La pura connessione non basta. Lo dimostrano i problemi strutturali delle reti neurali, dalla loro incapacità di ragionare in modo composizionale alle difficoltà nell’integrare conoscenza esperta, passando per una cronica opacità che rende arduo fidarsi delle loro conclusioni. Questo non è un’opinione, ma un dato di fatto che la ricerca più rigorosa ribadisce. Lo stesso Marcus, del resto, da anni denuncia pubblicamente l’illusione che basti aggiungere parametri per fabbricare intelligenza.

Succede così che l’AI industriale si ritrovi a un bivio tutt’altro che accademico. O si accetta il limite intrinseco dei sistemi puramente neurali oppure si abbraccia senza nostalgia l’approccio neuro symbolic, quello che prova a combinare apprendimento e logica. Belle cita per esempio la tradizione delle probabilistic logics e della statistical relational learning, pionieri di un’idea semplice. Le macchine devono saper apprendere dai dati, ma anche ragionare con i concetti. Un’impresa che ha trovato nuovo slancio con le architetture neuro symbolic contemporanee, tra cui DeepProbLog di Manhaeve e De Raedt, le Logic Tensor Networks di Badreddine e Garcez e le linee di lavoro di Hitzler e Sarker. Tutti esempi che mostrano come l’osmosi tra simboli e neuroni produca una forma di intelligenza più robusta. Più simile, aggiungo, a quella necessaria alle imprese che vogliono entrare sul serio nell’era dell’automazione decisionale.

A pensarci, la prova più lampante arriva proprio dai successi più clamorosi dell’AI recente. Chi crede che AlphaGeometry sia soltanto un’altra vittoria del deep learning probabilmente non ha letto le note tecniche di Google DeepMind. Belle e Marcus lo sottolineano con eleganza. AlphaGeometry e AlphaProof non sono modelli puramente neurali. Sono sistemi neuro symbolic progettati per far cooperare una rete neurale generativa con un motore simbolico di deduzione. Risultato. Problemi dell’Olimpiade Internazionale di Matematica risolti con prestazioni da medaglia d’argento. Tradotto per i non addetti ai lavori. Quando i modelli profondi si fanno aiutare da un motore logico, le capacità di ragionamento fanno un salto quantico. Curioso che la comunità che predica l’autosufficienza del deep learning sia rimasta così silenziosa su questo punto.

La stessa linea si osserva negli strumenti ora innestati nei modelli generativi di uso comune. Il fenomeno dei code interpreter e delle integrazioni con motori esterni come Wolfram Alpha è un altro indizio. Marcus e Davis lo hanno analizzato con precisione quasi crudele. Quando si tratta di risolvere un problema matematico reale, gli LLM da soli improvvisano. Quando invece si delega la parte simbolica a un motore strutturato, le risposte diventano affidabili. Non è magia, è architettura. Una frase di Belle, quasi nascosta all’interno del report, è particolarmente pungente. Senza l’integrazione simbolica, molti modelli rispondono in modo corretto solo perché addestrati su problemi simili, non perché abbiano capito la struttura logica del quesito. Un dettaglio che per un CTO sano di mente fa la differenza tra efficienza e disastro.

Il cuore della discussione gira intorno a un concetto semplice. Le reti neurali apprendono correlazioni. I sistemi simbolici manipolano verità strutturate. Nel mondo reale servono entrambe. Una rete deve saper estrarre pattern dai dati. Un motore logico deve poi assicurarsi che quei pattern rispettino vincoli, regole, cause e conseguenze. Belle e Marcus suggeriscono che un modello neuro symbolic può sviluppare capacità più simili al ragionamento umano, non perché mima la mente, ma perché costruisce un ponte tra percezione statistica e manipolazione concettuale. Una forma di AI, direi, più degna del termine intelligence.

Il valore industriale di questa prospettiva è enorme e troppo spesso sottovalutato. Le organizzazioni che si affidano a modelli black box per prendere decisioni critiche stanno costruendo castelli su sabbia. Per contro, i framework neuro symbolic permettono di codificare vincoli normativi, conoscenza esperta, regole di sicurezza, struttura causale. Non è un dettaglio da poco in un mondo dove la compliance si intreccia con la strategia e dove l’AI deve essere spiegabile e affidabile. Belle cita studi che mostrano come la semplice imposizione di vincoli logici all’interno della loss function possa trasformare una rete in un modello più disciplinato e coerente. Un’idea che ha le sue radici nella filosofia della program synthesis, raccontata da Evans e Grefenstette, e nella tradizione della knowledge representation da Levesque a Halpern.

Si nota inoltre un’evoluzione significativa nella direzione dei sistemi a due livelli. Un layer neurale per la percezione e la generazione. Un layer simbolico per guidare, vincolare e correggere il ragionamento. Un modello che riecheggia la distinzione cara a Kahneman tra pensiero intuitivo e pensiero deliberativo. Una metafora che non solo funziona, ma spiega perché gli LLM restano vulnerabili agli errori strutturali. Un sistema che produce frasi plausibili non è un sistema che comprende. È un generatore statistico. Non un ragionatore.

Il messaggio degli autori è chiaro. La neuro symbolic AI non è una nicchia. È la via obbligata se si vuole costruire sistemi intelligenti che siano affidabili, verificabili e capaci di ragionare. Non eliminando il deep learning, ma incorniciandolo con un linguaggio che gli impedisca di confondere correlazioni con deduzioni. Una considerazione che dovrebbe guidare qualunque roadmap tecnologica seria. Perché in un contesto competitivo, affidarsi a modelli incapaci di gestire la logica equivale a guidare un jet supersonico con un navigatore che ogni tanto inventa la mappa.

Forse la parte più ironica dell’intera discussione è che la comunità dell’AI sta lentamente convergendo verso la stessa intuizione che Turing, McCarthy e gli altri pionieri avevano già intravisto. L’intelligenza non è solo apprendimento. È anche manipolazione strutturata della conoscenza. Belle e Marcus ci ricordano che ignorarlo non è solo un errore scientifico. È un errore strategico.

Se il futuro dell’AI deve essere robusto, spiegabile, capace di operare dentro contesti complessi e regolamentati, allora la traiettoria è già tracciata. Neuro symbolic non è un’opzione esotica. È il nuovo livello minimo di serietà. E chi lo capisce per primo sarà quello che smetterà di inseguire il rumore statistico per iniziare finalmente a costruire sistemi che ragionano davvero.