Se DeepMind avesse davvero la chiave per l’AGI, oggi non staremo qui a parlare di “consistency” come fosse la soluzione magica. Il termine è elegante, quasi rassicurante, ma sotto la superficie nasconde un problema strutturale: la mente artificiale che cercano di vendere come “quasi umana” non sa pensare in modo coerente nemmeno da un prompt all’altro. È come se un premio Nobel di matematica sapesse risolvere un’equazione differenziale e poi sbagliasse a calcolare 7×8. Quando Hassabis la chiama “jagged intelligence” sembra un passo verso la verità, ma in realtà è una diagnosi implicita di fallimento. Dopo dieci anni di budget illimitati, cluster di GPU da fantascienza e un esercito di PhD, la promessa di AGI si è ridotta a un modello che può vincere l’Olimpiade Internazionale di Matematica e poi inciampare su un problema da terza media.
Il fatto è che questa ossessione per la “consistency” è una toppa su un motore che non è mai stato progettato per navigare la realtà. Un LLM non apprende mentre lavora, non riscrive se stesso, non aggiorna in tempo reale le proprie credenze. È un palazzo di specchi: più grande lo fai, più riflette il vuoto. L’idea che bastino più dati, più parametri e più potenza di calcolo per superare questo limite è la stessa che portò Nokia a credere che la prossima generazione di cellulari fosse solo questione di schermi più grandi, mentre Apple stava già progettando lo smartphone come concetto nuovo. La storia dell’innovazione è piena di giganti ciechi, convinti che il futuro fosse un’estensione del presente, fino a svegliarsi e scoprire di essere diventati irrilevanti.
Chi difende DeepMind cita i successi indiscutibili nella biologia computazionale e nella ricerca scientifica, come AlphaFold. Certo, ma quelli sono trionfi di narrow AI, non di intelligenza generale. Il salto verso l’AGI richiede continuità di apprendimento, adattamento autonomo e la capacità di ristrutturare il proprio modello interno. Nessuna di queste caratteristiche è intrinseca all’architettura transformer, per quanto evoluta. DeepMind lo sa, ma non lo dice. Preferisce parlare di nuovi benchmark e test più duri, come se il problema fosse solo affinare la misurazione, non la sostanza. È un po’ come un costruttore di automobili che, di fronte a un motore che si spegne a caso, investa in tachimetri più precisi invece di riprogettare il propulsore.
Mentre Sundar Pichai inventa acronimi come “AJI” artificial jagged intelligence per descrivere questo stadio di sviluppo, la verità è che i colossi del settore si stanno muovendo in cerchio. Musk ha ragione su un punto: Google oggi ha il vantaggio di calcolo e dati più grande del pianeta, e per questo ha la maggiore probabilità di dominare il settore. Ma il vantaggio infrastrutturale non garantisce il salto di paradigma. Se così fosse, General Motors avrebbe inventato l’auto elettrica di massa e Kodak la fotografia digitale. In realtà il vantaggio accumulato può diventare un vincolo, perché spinge a proteggere il modello di business esistente invece di distruggerlo per costruirne uno nuovo.
L’AGI, quella vera, non nascerà da un ulteriore tuning di LLM giganteschi, ma da un’architettura che incorpori memoria dinamica, auto-riprogrammazione e una vera comprensione contestuale del mondo. La differenza tra un chatbot e un sistema cognitivo sta tutta qui: uno produce risposte probabili, l’altro sviluppa convinzioni e le modifica alla luce di nuove informazioni. Uno gioca a imitare la mente umana, l’altro la costruisce da zero. E oggi nessuno dei giganti Big Tech sta facendo seriamente quest’ultimo lavoro, almeno non alla luce del sole.
Quando la svolta arriverà, non sarà un aggiornamento di Gemini o GPT, ma qualcosa che cambierà la grammatica stessa dell’intelligenza artificiale. E quando succederà, DeepMind rischia di scoprire di aver passato un decennio a lucidare una macchina perfetta… per vincere gare che non contano. Proprio come BlackBerry, che fino all’ultimo credeva che la tastiera fisica fosse la chiave del futuro.