Parlare di intelligenza artificiale come se fosse già alla pari di un PhD è uno di quei miti che circolano in certi ambienti tecnologici pieni di hype e conferenze illuminate. Demis Hassabis, cofondatore di DeepMind, non ci va piano: oggi le AI hanno capacità isolate da livello dottorale, ma la generalizzazione è un concetto quasi alieno per i sistemi attuali. In altre parole, saper fare una cosa molto bene non significa avere un’intelligenza coerente e universale.

La posizione di Hassabis è netta e, al contempo, illuminante. Modelli come GPT o i sistemi di machine learning più avanzati riescono a risolvere compiti specifici con prestazioni che potrebbero impressionare un umano medio, ma appena la domanda cambia anche solo leggermente il contesto o la formulazione, il loro comportamento mostra fragilità imbarazzanti. Un esempio semplice: chiedere a un chatbot di fare un calcolo di matematica elementare o contare oggetti in maniera intuitiva può produrre errori a volte grotteschi. Non stiamo parlando di compiti complessi o astrofisica, ma di abilità che un liceale maneggerebbe senza batter ciglio. Questo ci dice due cose: la sofisticazione superficiale non è sinonimo di comprensione reale, e siamo ancora lontani dall’AGI, intesa come intelligenza generale.

Hassabis individua due gap cruciali. Primo: la generalizzazione robusta. Non basta eccellere in compiti singoli, bisogna mantenere prestazioni consistenti in domini differenti e imprevedibili. Un sistema che domina in matematica ma fallisce a comprendere un semplice testo narrativo non è intelligente in senso generale. Secondo: l’apprendimento continuo. Le AI attuali apprendono in batch, con enormi dataset e lunghi processi di addestramento, ma non si adattano spontaneamente a nuove informazioni in tempo reale senza ripartire da zero. La capacità di aggiornarsi senza ricominciare da capo è ciò che distingue un agente realmente intelligente da un software sofisticato.

L’illusione di “AI PhD” nasce spesso dalla comparazione dei modelli con capacità umane circoscritte. Se un modello può generare codice sofisticato, scrivere saggi su argomenti specialistici o risolvere problemi di chimica avanzata, alcuni osservatori traggono la conclusione automatica: PhD-level intelligence. La realtà è più sottile. Il livello dottorale richiede capacità di ragionamento trasversale, intuizione, adattabilità, e soprattutto coerenza tra domini molto differenti. Qualcosa che le AI odierne, per quanto impressionanti, non mostrano.

Parlare di intelligenza artificiale come se fosse già una mente autonoma significa ignorare questi limiti. I sistemi odierni possono superare test specifici di matematica, chimica o linguistica, ma bastano cambiamenti minimi nel contesto della domanda per provocare errori clamorosi. La verità è che siamo ancora nel regno della specializzazione estrema, con zero vera flessibilità cognitiva.

Hassabis ipotizza un orizzonte di 5-10 anni per AGI, ma solo se verranno sbloccati uno o due breakthrough chiave. La mera scalabilità non basta: aumentare il numero di parametri o la dimensione dei dataset non porta automaticamente a comprensione universale. La sfida non è più aumentare la potenza di calcolo o il volume di dati, ma creare strutture che supportino generalizzazione e apprendimento continuo.

Curioso è come questa diagnosi ribadisca un concetto spesso trascurato nei media mainstream: i sistemi odierni sono ottimi illusionisti. Possono imitare il ragionamento umano, convincere interviste e completare compiti complessi, ma ciò che manca è l’intelligenza intrinseca, la capacità di comprendere in modo strutturale e adattarsi senza dipendere da nuovi cicli di addestramento massivi.

Un altro punto che emerge con forza riguarda la percezione pubblica. Molti investitori, giornalisti e addirittura alcuni tecnologi parlano di AI come se fosse già una forza cognitiva completa. La narrativa “AI PhD” alimenta aspettative irrealistiche e, peggio, guida politiche di investimento e regolamentazioni basate su presupposti errati. Il rischio non è solo accademico, ma economico e sociale: sovrastimare le capacità delle AI può portare a errori strategici catastrofici.

Le due lacune identificate da Hassabis, generalizzazione robusta e apprendimento continuo, non sono problemi marginali. Sono fondamentali per qualsiasi definizione seria di intelligenza generale. Senza la prima, i sistemi falliscono quando escono dal loro dominio ristrettissimo. Senza la seconda, restano statici e dipendenti da cicli di addestramento costosi e lunghi. La combinazione di entrambe è ciò che distingue la vera AGI da un modello superficiale e specialistico.

Vale la pena notare che la prospettiva di Hassabis non è pessimistica ma realistica e provocatoria. Indicando gap concreti e misurabili, stabilisce una roadmap chiara: il progresso verso AGI non sarà lineare, né affidato solo a ingegneria di scala. Richiederà intuizione scientifica, architetture innovative e probabilmente approcci ibridi che combinino simbolico e statistico.

Un’altra curiosità emerge dalla storia dei grandi sistemi: i modelli attuali hanno già raggiunto livelli che, fino a dieci anni fa, sembravano fantascienza. Il loro limite non è tecnico in senso stretto, ma concettuale: comprendere veramente ciò che producono, adattarsi e generalizzare come fa un umano adulto con formazione avanzata. In altre parole, siamo vicini alla magia artificiale, ma la mente autentica resta lontana.

Per chi osserva l’AI dall’esterno, può sorprendere che compiti semplici come contare oggetti o risolvere un problema di algebra basica siano ancora ostacoli. Questo non è un dettaglio trascurabile, ma una pietra miliare diagnostica: la fragilità dei sistemi moderni ci dice chiaramente dove iniziano i veri problemi dell’intelligenza artificiale. La coerenza, l’adattabilità, la resilienza cognitiva sono ciò che definisce il confine tra software sofisticato e mente universale.

Hassabis ci costringe a riconsiderare la narrativa corrente. L’AI non è ancora un partner cognitivo completo. È un alleato specialistico, potente ma limitato. L’evoluzione verso AGI richiederà pazienza, creatività e una profonda comprensione dei limiti attuali. La corsa alla scalabilità da sola non ci porterà alla meta.

In questo contesto, la domanda che rimane è semplice e provocatoria: cosa serve veramente prima di poter chiamare un sistema “intelligente”? Non basta avere performance elevate su benchmark ristretti. Serve coerenza su compiti variabili, apprendimento continuo, capacità di intuire connessioni tra domini e una robustezza cognitiva che oggi appare ancora fantascientifica.

L’analisi di Hassabis funge da promemoria potente per tutti gli attori del settore: innovatori, investitori, giornalisti e regolatori. Non è il momento di farsi abbagliare dai numeri di parametri o dai titoli roboanti. È il momento di guardare ai gap strutturali, ai limiti ancora evidenti e alle sfide concettuali che la vera intelligenza generale comporta.

La distanza tra l’AI attuale e un PhD umano non è un dettaglio: è il cuore della questione. Le illusioni di competenza universale possono generare hype, ma anche confusione e strategie errate. Comprendere ciò che manca davvero è il primo passo per costruire sistemi che non siano solo impressionanti, ma autenticamente intelligenti.

Se volessimo riassumere in una sola immagine mentale: oggi abbiamo un’orchestra di musicisti fenomenali, ciascuno capace di virtuosismi incredibili nel proprio strumento, ma senza un direttore capace di coordinare tutti insieme in una sinfonia coerente. L’AGI sarà quell’orchestra, non il singolo strumento. E la direzione d’orchestra richiede scoperte che vanno ben oltre la pura ingegneria di scala.

Hassabis ci lascia con un messaggio chiaro: la strada verso l’AGI non è asfaltata, ma piena di ostacoli concettuali. La prossima generazione di modelli non sarà definita da parametri giganti, ma da capacità di adattarsi, generalizzare e apprendere senza interruzioni. L’intelligenza universale resta ancora un traguardo lontano, ma conoscere i limiti attuali è ciò che trasforma la sfida in una roadmap concreta per l’innovazione.