Quando la narrazione smette di essere rassicurante e diventa improvvisamente fragile l’intelligenza artificiale contemporanea, coincide con Yann LeCun che parla apertamente al Financial Times e decide di dire quello che, nei corridoi di Silicon Valley, molti sussurrano da mesi ma nessuno osa mettere a verbale. LeCun non è un commentatore qualunque. È uno degli architetti dell’AI moderna, un premio Turing, una figura che ha contribuito a definire le fondamenta teoriche e pratiche del deep learning. Quando una persona con questo pedigree dice che la strategia di Meta è sbagliata, non siamo davanti a un dissenso interno. Siamo davanti a una frattura ideologica.
Il punto di partenza è apparentemente tecnico, quasi noioso. I benchmark. Quei numeri magici che decidono chi è davanti e chi è indietro nella corsa all’AI. LeCun racconta al Financial Times che i risultati di Llama 4 sarebbero stati “fudged a little bit”, leggermente aggiustati, usando modelli diversi per gonfiare i punteggi. Tradotto in linguaggio non diplomatico: presentazione selettiva dei risultati per sembrare più avanti di quanto si sia realmente. Non è un’accusa marginale. In un settore in cui la fiducia scientifica è l’unico capitale reale, giocare con i benchmark equivale a limare la verità per esigenze di storytelling. È la trasformazione della ricerca in marketing, un passaggio che LeCun considera tossico.
Questa critica non nasce nel vuoto. Meta, come gran parte dell’industria, è intrappolata in una dinamica che premia l’annuncio più del progresso, la demo più del fondamento teorico. I grandi modelli linguistici sono diventati lo strumento perfetto per questo gioco. Crescono, impressionano, producono output fluenti, sembrano intelligenti. Ma sembrano è la parola chiave. LeCun insiste su un punto che per molti è scomodo: la fluidità linguistica non è comprensione, la coerenza sintattica non è intelligenza, la predizione statistica non è cognizione. Qui entra in gioco la keyword centrale di questo articolo: intelligenza artificiale generale. Secondo LeCun, confondere LLM sempre più grandi con un percorso verso l’AGI è un errore concettuale prima ancora che tecnologico.
Il Financial Times descrive un contesto interno a Meta sempre più teso dopo il rilascio di Llama 4. LeCun parla apertamente di un Mark Zuckerberg che avrebbe “perso fiducia” nel team GenAI, relegandolo ai margini delle decisioni strategiche. Il risultato è una riorganizzazione silenziosa ma brutale, accompagnata da uscite eccellenti e da una fuga di talenti che, secondo LeCun, è tutt’altro che conclusa. “A lot of people have left, a lot of people who haven’t yet left will leave”, dice. Non è una profezia, è una constatazione da insider.
Il tema della leadership emerge con forza e qui il tono si fa quasi tagliente. LeCun definisce Alexandr Wang, fondatore di Scale AI e figura chiave dopo l’accordo da 14 miliardi di dollari con Meta, come “young” e “inexperienced” rispetto alla guida di un’organizzazione di ricerca avanzata. Non è un attacco personale, ma un’affermazione culturale. La ricerca non funziona come un reparto vendite. Non risponde bene a catene di comando rigide o a metriche trimestrali. Dire a un ricercatore cosa fare, soprattutto a uno con la storia di LeCun, è come dire a un architetto di progettare una cattedrale partendo dal colore delle tende.
Qui emerge un conflitto più profondo tra due modelli di potere tecnologico. Da un lato la cultura startup, veloce, aggressiva, orientata al risultato immediato. Dall’altro la cultura della ricerca di base, lenta, ostinata, spesso frustrante. Meta, secondo LeCun, ha scelto la prima, sacrificando la seconda sull’altare della competizione con OpenAI, Google e Microsoft. Ma questa scelta ha un costo che va oltre il morale interno. Ha un costo epistemologico.
Il cuore dell’intervista al Financial Times è la dichiarazione più esplosiva: i large language models sono una strada senza uscita per la superintelligenza. Questa frase merita di essere scomposta con attenzione, perché non è una provocazione gratuita. LeCun sostiene che i modelli basati esclusivamente su testo mancano di una rappresentazione del mondo. Non hanno un modello interno della fisica, della causalità, dello spazio e del tempo. Possono descrivere un oggetto che cade, ma non comprendono cosa significhi davvero cadere. Possono parlare di una porta chiusa, ma non hanno mai sperimentato cosa significhi urtare una superficie solida.
Qui entra in gioco la prima keyword semantica correlata: apprendimento multimodale. Per LeCun, l’AI del futuro deve nascere dall’integrazione di segnali visivi, dati fisici, interazioni con l’ambiente. Il linguaggio è una compressione dell’esperienza umana, non l’esperienza stessa. Allenare un modello solo su testo equivale a insegnare a qualcuno a vivere leggendo esclusivamente manuali, senza mai uscire di casa. È un paradosso che l’industria sembra ignorare perché il testo è facile, abbondante e monetizzabile.
Non sorprende quindi che LeCun stia lanciando Advanced Machine Intelligence Labs, una nuova realtà focalizzata su modelli del mondo addestrati su video e dati fisici. Non chatbot più eloquenti, ma sistemi capaci di apprendere osservando il mondo. Questa è la seconda keyword semantica rilevante: modelli basati su video e dati fisici. È un cambio di paradigma che ricorda più la robotica cognitiva e le neuroscienze computazionali che l’attuale moda degli LLM. Ed è anche una critica implicita all’industria che preferisce ottimizzare ciò che è semplice da misurare piuttosto che ciò che è difficile ma fondamentale.
Nel racconto del Financial Times emerge anche un elemento quasi sociologico. LeCun parla di nuove assunzioni in Meta come di persone “completely LLM pilled”. È una frase ironica, ma feroce. Significa che molti giovani ricercatori e ingegneri sono ormai ideologicamente convinti che i grandi modelli linguistici siano la risposta a tutto. Non è più una scelta tecnica, è una fede. E come tutte le fedi, diventa impermeabile alla critica. Questo è forse il rischio maggiore per l’innovazione: quando una tecnologia smette di essere uno strumento e diventa un dogma.
L’intervista al Financial Times va letta anche come un avvertimento strategico. Le grandi aziende tecnologiche stanno investendo decine di miliardi in infrastrutture per LLM, data center, chip specializzati, modelli sempre più grandi. Se LeCun ha ragione, una parte significativa di questi investimenti produrrà rendimenti decrescenti. Non perché gli LLM siano inutili, ma perché non sono il fondamento dell’intelligenza artificiale generale. Sono una componente, potente ma limitata. La vera frontiera, secondo questa visione, è la capacità di costruire sistemi che apprendano come i bambini, osservando, esplorando, sbagliando, interagendo con il mondo.
C’è un’ironia sottile in tutto questo. Meta è nata come azienda che voleva connettere persone reali nel mondo reale. Ora investe in modelli che parlano molto ma non vedono nulla. LeCun, uscendo di scena, riporta l’attenzione su una domanda scomoda: stiamo costruendo intelligenza o solo simulazioni convincenti di conversazione. È una domanda che il mercato preferirebbe evitare, perché non ha una risposta semplice né immediatamente monetizzabile.
Il valore dell’intervista al Financial Times sta proprio qui. Non offre certezze, ma incrina un consenso apparente. Costringe dirigenti, investitori e ricercatori a distinguere tra progresso reale e progresso percepito. In un settore che vive di hype ciclici, la voce di LeCun è un raro richiamo alla profondità teorica. Non è detto che abbia ragione su tutto. Ma ignorarlo sarebbe un errore strategico e intellettuale.
La storia dell’intelligenza artificiale è fatta di ondate di entusiasmo seguite da inverni improvvisi. Ogni volta che il settore ha creduto di aver trovato la formula definitiva, la realtà ha dimostrato il contrario. Oggi i grandi modelli linguistici sono al centro della scena, ma le parole di LeCun suggeriscono che il prossimo salto non arriverà da qualche trilione di parametri in più, bensì da una comprensione più profonda di cosa significhi conoscere il mondo. E questo, per chi fa tecnologia seriamente, dovrebbe essere più stimolante che spaventoso.
Riferimenti
Financial Times, intervista a Yann LeCun su Meta, Llama 4 e limiti dei large language models.
Analisi accademiche su intelligenza artificiale generale, world models e apprendimento multimodale.
Comunicazioni ufficiali su Advanced Machine Intelligence Labs e la visione di modelli basati su video e dati fisici.
https://www.ft.com/content/e3c4c2f6-4ea7-4adf-b945-e58495f836c2