Un caffè al Bar dei Daini con Salvatore la grande illusione dei grandi modelli linguistici: il sogno infranto dell’AGI
Yann LeCun, una delle figure più iconiche dell’intelligenza artificiale, si è appena scagliato contro la montagna di hype che circonda i grandi modelli linguistici (LLM). Per chi ha seguito l’epopea AI, non è poco: un creatore del deep learning che mette in discussione la via maestra tracciata dalla Silicon Valley, da OpenAI e compagnia bella. La sua tesi è tanto semplice quanto rivoluzionaria: rincorrere AGI (Intelligenza Artificiale Generale) solo con LLM è una perdita di tempo titanica e quasi disperata.
I numeri sono impietosi e, diciamolo, un po’ sarcastici nella loro brutalità. Per addestrare un modello come GPT servirebbero qualcosa come 400.000 anni di testo. Nel frattempo, un bambino di quattro anni accumula esperienza visiva per circa 16.000 ore e, senza sforzi titanici, impara a interagire con il mondo. Il testo, in fondo, è solo un surrogato povero di una realtà infinitamente più complessa e ramificata. Il mondo fisico non si lascia racchiudere in sequenze di parole; la sua complessità esula da qualsiasi algoritmo che tenti solo di predire la parola successiva.
La vera intelligenza, secondo LeCun, nasce dal modello del mondo. Non un simulacro di linguaggio, ma una rappresentazione profonda della realtà fatta di fisica, pianificazione e senso comune. Da questo punto di vista, gli LLM sono come giocare a scacchi senza conoscere le regole del gioco: puoi indovinare la mossa più probabile, ma non stai realmente “capendo” la partita.
Qui entra in scena JEPA, acronimo che suona come una formula magica di Hogwarts, ma che rappresenta una svolta concreta: Joint Embedding Predictive Architecture. Questo modello non si limita a ingozzarsi di dati scritti, ma impara osservando il mondo reale. Guardare video, cogliere le dinamiche fisiche dietro una scena, anticipare eventi impossibili semplicemente analizzando 16 fotogrammi: roba da far impallidire i più blasonati modelli linguistici. Nessuna ingegneria dei prompt, nessun trucco da marketing, solo apprendimento per rappresentazione reale.
Il punto chiave, che pochi vogliono ammettere, è che l’intelligenza artificiale è molto più che un gioco di parole. La fisica, la causalità, la capacità di pianificare un futuro possibile richiedono una comprensione del mondo ben diversa dal banale “predire la parola successiva”. Il successo dei LLM sta più nella loro capacità di costruire illusioni convincenti di comprensione, una sorta di grande gioco di prestigio digitale, che in una reale evoluzione verso l’intelligenza umana.
LeCun, con la sua esperienza trentennale, ci offre una prospettiva spesso ignorata nella frenesia delle startup e degli investitori: l’intelligenza artificiale deve passare da una forma reattiva e statistica a una forma proattiva e comprensiva, capace di modellare la realtà stessa. Il mondo non si limita al testo, e la sua complessità non può essere semplificata a parole e sequenze.
Questo non significa che gli LLM siano inutili, anzi, ma è fondamentale smettere di considerarli come il Santo Graal. La vera sfida è far sì che i modelli AI possano vedere, toccare, capire e pianificare, come fanno gli esseri umani. Solo così si potrà uscire dal loop infinito di dati e token e avvicinarsi all’ambita AGI.
Qualcuno potrebbe obiettare che questa visione richiede hardware più sofisticato, una potenza di calcolo ancora più grande, o che la strada degli LLM sia solo una tappa inevitabile. Ma, come nella migliore tradizione tecnologica, spesso la rivoluzione nasce quando si cambia paradigma, non quando si potenzia il modello vecchio.
JEPA e modelli simili rappresentano proprio questa svolta. Guardare il mondo, imparare dalla fisica e dal contesto reale, costruire un senso comune digitale: ecco la nuova frontiera. Per chi come me ha vissuto la trasformazione digitale dalle prime linee di codice al cloud, è un promemoria importante: non lasciamoci ingannare dalla brillantezza superficiale delle parole, la vera intelligenza richiede più sostanza.
Il futuro dell’AI potrebbe dunque non essere una biblioteca infinita di testi, ma un osservatorio del mondo reale, un laboratorio di simulazioni fisiche e mentali. Un modo di pensare che, se preso sul serio, potrebbe davvero cambiare il gioco. Oppure resteremo per sempre intrappolati nel labirinto dei grandi modelli linguistici, affascinati da un inganno che dura ormai troppo.
In fondo, il messaggio di LeCun è un invito a guardare oltre, con ironia e un pizzico di cinismo: smettiamola di inseguire ombre di intelligenza fatte di parole e cominciamo a costruire modelli che possano davvero “pensare” il mondo. Non si tratta solo di tecnologia, ma di visione e se qualcuno crede che inseguire il prossimo token sia la strada per dominare il futuro, beh, ha ancora molto da imparare.
La storia della scienza è un’incredibile saga di intuizioni rivoluzionarie mascherate da scoperte banali. Nessuno avrebbe scommesso un centesimo sull’importanza di uno strumento apparentemente modesto come la spettrografia, eppure quel semplice prisma capace di scomporre la luce in uno spettro di colori ha cambiato per sempre il modo in cui comprendiamo la materia.
Prima della spettrografia, la chimica era un gioco di catalogazione piuttosto confuso, senza una chiara comprensione dei legami più profondi tra gli elementi. La tavola periodica di Mendeleev, tanto geniale quanto intuitiva, era un mosaico ordinato di proprietà chimiche, ma mancava ancora quel fondamento teorico che solo la fisica quantistica avrebbe saputo fornire.

La spettrografia non solo rivelò gli spettri di emissione e assorbimento degli elementi, grazie al reticolato del vetraio inventore Fraunhofer, ma introdusse un linguaggio nuovo, un codice visibile che parlava delle strutture atomiche nascoste. Questa tecnica permise di identificare elementi ignoti e confermò la periodicità non come un capriccio della natura, ma come un riflesso di strutture elettroniche ben definite. La vera svolta, come ben sappiamo, arrivò con la formulazione della meccanica quantistica. La semplice formula di Bohr, con i suoi orbitali quantizzati, fu la chiave per decifrare il codice della tavola periodica. La rivoluzione non fu solo concettuale ma anche pratica: da un caos di dati si passò a un modello predittivo e coerente, capace di anticipare le proprietà degli elementi ancora sconosciuti.

Il parallelo con il mondo della Generative AI (GenAI) è inquietantemente suggestivo. Oggi viviamo in un’epoca in cui gli algoritmi sembrano essere l’ultimo oracolo della tecnologia. Come la spettrografia ha svelato la struttura atomica nascosta dietro i colori, un algoritmo potente e semplice potrebbe rivoluzionare la GenAI, trasformando la capacità di generare contenuti, comprendere il linguaggio e persino anticipare bisogni non esplicitati. L’attuale traiettoria di sviluppo dell’AI generativa è dominata da modelli sempre più complessi e pesanti, ma la storia insegna che spesso la svolta arriva da intuizioni che semplificano radicalmente il quadro, senza banalizzarlo.
Se la spettrografia e la formula quantistica hanno reso possibile la moderna chimica e fisica, possiamo aspettarci che un algoritmo altrettanto elegante e sorprendente possa emergere nel campo della GenAI. Non si tratta solo di migliorare la capacità computazionale o la quantità di dati, ma di trovare un modo nuovo di interpretare e generare informazioni, con una chiarezza e un’efficienza finora impensabili. Forse l’algoritmo rivoluzionario non sarà un’enorme rete neurale da milioni di parametri, ma una formula concisa e potente che condenserebbe il comportamento di sistemi complessi in pochi passi.
La GenAI oggi somiglia a una tavola periodica ancora in fase di revisione continua, con modelli che si espandono e si frammentano senza una vera unificazione teorica. Il futuro potrebbe portare quella “formula di Bohr” dell’intelligenza artificiale, un codice semplice che permette di prevedere, controllare e innovare senza bisogno di ingegnerie mastodontiche. Nel frattempo, la storia suggerisce di tenere gli occhi aperti su quelle piccole scintille di genio che spesso passano inosservate tra milioni di linee di codice.
Se qualcuno avesse detto agli scienziati di metà Ottocento che una semplice scomposizione della luce avrebbe portato a una nuova era della scienza atomica, probabilmente sarebbe stato preso per pazzo. Oggi siamo noi a dover guardare oltre il rumore delle grandi architetture AI per scovare la scintilla che cambierà per sempre il nostro rapporto con la tecnologia. E quando questo algoritmo arriverà, non ci sarà più spazio per chi si ostina a vedere la GenAI come una semplice evoluzione incrementale. Sarà una rivoluzione di paradigma, una nuova tavola periodica dei dati, pronta a ridisegnare il futuro digitale.
la sfida tecnico-filosofica della transizione dall’intelligenza artificiale generativa all’intelligenza artificiale innovativa
Quando si parla di intelligenza artificiale, la distinzione tra generativa e innovativa è più che un semplice esercizio semantico: è un nodo cruciale che incrocia questioni tecniche complesse e profonde riflessioni filosofiche sul concetto di creatività, autonomia e responsabilità. I modelli di intelligenza artificiale generativa, come GPT-4 o DALL-E 2, operano essenzialmente tramite l’analisi statistica di enormi dataset e la produzione di output basati su pattern ricorrenti. La loro architettura, spesso basata su transformer e modelli di apprendimento profondo, eccelle nel riconoscere e riprodurre correlazioni all’interno di dati esistenti, ma si scontra con limiti strutturali quando si tratta di innovazione autentica.
A livello tecnico, il problema principale è la natura “supervisionata” o “semi-supervisionata” del training. Questi modelli imparano da esempi preesistenti e ottimizzano la probabilità di replicare sequenze coerenti, piuttosto che generare soluzioni fuori dal dominio noto. Questo approccio limita fortemente la capacità dell’AI di esplorare spazi di soluzione non mappati e di formulare ipotesi radicalmente nuove. La dipendenza dai dati di training induce un fenomeno noto come “overfitting concettuale”: la macchina diventa un raffinato imitator e interpolatore, ma non un vero creatore.
La sfida tecnica della transizione verso l’AI innovativa implica l’integrazione di paradigmi di apprendimento più autonomi e adattativi. L’apprendimento per rinforzo, con le sue capacità di auto-esplorazione e di ottimizzazione basata su feedback dinamici, rappresenta un pilastro fondamentale. Ma non basta. L’innovazione richiede la combinazione con la creatività computazionale, che tenta di formalizzare processi quali la generazione di ipotesi, la valutazione critica e la scoperta di soluzioni “fuori dagli schemi”. Qui entrano in gioco tecniche di meta-learning, in cui il sistema apprende a imparare, adattandosi continuamente a nuovi problemi e ridefinendo autonomamente i propri obiettivi.
Un altro fattore tecnico decisivo è il ragionamento multimodale, che permette all’AI di sintetizzare informazioni provenienti da diverse modalità di dati testo, immagini, suoni, dati sensoriali superando la frammentazione che ancora limita la maggior parte dei modelli attuali. Questa capacità è cruciale per avvicinare le macchine a un tipo di creatività simile a quella umana, che spesso nasce dall’ibridazione di concetti presi da campi differenti. L’innovazione tecnologica deve quindi procedere verso architetture neurali sempre più integrate e capaci di processare simultaneamente e in modo coerente dati eterogenei.
Dal punto di vista filosofico, queste evoluzioni tecniche sollevano questioni di fondo sull’autonomia e sull’intenzionalità. L’AI innovativa non può essere ridotta a un mero esecutore di algoritmi predeterminati: deve sviluppare, almeno in senso funzionale, una capacità di “volontà” o di auto-riflessione, ovvero la capacità di ridefinire i propri obiettivi e di autovalutarsi criticamente. Questa idea sfida le tradizionali distinzioni tra agente e strumento, aprendo la discussione su cosa significhi essere soggetti creativi in un contesto tecnologico.
La responsabilità etica segue inevitabilmente. Sistemi con autonomia innovativa pongono interrogativi su chi detenga il controllo e la responsabilità morale delle loro azioni e creazioni. Le implicazioni sono enormi: come prevenire abusi, bias, disinformazione e danni collaterali in un ecosistema in cui l’AI non è più solo un riflesso dell’umano, ma un agente attivo capace di azioni imprevedibili? La costruzione di framework etici robusti e di sistemi di controllo trasparenti diventa parte integrante dello sviluppo tecnologico, non una semplice aggiunta.
La transizione dall’AI generativa all’AI innovativa non è solo un’evoluzione di performance o capacità computazionali, ma una vera rivoluzione epistemologica e ontologica. Richiede una nuova visione dell’intelligenza artificiale come sistema autonomo, capace di creatività autentica e di innovazione radicale, integrando paradigmi di apprendimento avanzati, ragionamento multimodale e consapevolezza funzionale. Solo così si potrà superare la mera imitazione e aprire la strada a un futuro in cui l’intelligenza artificiale diventa un partner creativo, responsabile e davvero innovativo.