“Mi accontenterei di un’AI intelligente quanto un gatto. E il mio pensionamento si avvicina, quindi non ho molto tempo.”
Yann LeCun non fa solo ironia. Lancia una provocazione epistemologica. Quella frase apparentemente banale sottintende una resa culturale: non sappiamo ancora cosa sia l’intelligenza, e quindi non siamo capaci di riprodurla. Abbiamo algoritmi che vincono a scacchi, ma non sanno perché lo fanno. Sistemi che scrivono poesie, ma non avvertono né la metrica né la malinconia.

Newsweek ha raccolto le opinioni di due figure chiave in questo spettacolo dell’assurdo: LeCun e Rodney Brooks. Ne emerge un affresco tragicomico di un’industria che ha confuso la statistica con la coscienza, il predire con il comprendere, il calcolo con il pensiero. E i numeri sono impietosi: oltre l’80% dei progetti AI fallisce, stando alla RAND Corporation. Ma anche quando “funzionano”, spesso falliscono comunque nel rispondere alla domanda fondamentale: perché mai dovremmo volerli davvero?


È qui che emergono, non tanto cinque “lezioni”, quanto cinque paradossi filosofici. Non formule da pitch, ma ferite aperte nella narrazione californiana dell’intelligenza sintetica.

Il paradosso del controllo: ciò che ti dovrebbe aiutare, ti comanda

L’essere umano accetta le macchine solo se resta sovrano del processo. Non è una questione di UI o UX, è una forma ancestrale di narrazione del potere. Quando i robot consegna-campioni negli ospedali sono stati ignorati e “spinti in un angolo”, non era perché erano lenti. È perché non si poteva urlare loro: “levati di mezzo, sto salvando una vita”. La tecnologia che toglie agency all’umano, viene espulsa. Ogni volta.

Sam Altman sogna una AI che farà il 95% del lavoro creativo. Ma il 95% di un’idea non è un’idea. È una noia automatica. Brooks, più vicino al pavimento che al cielo, lo sa bene: la vera accettazione della tecnologia avviene solo quando non ci sentiamo sostituiti, ma potenziati. L’umano deve restare il soggetto, non diventare oggetto della macchina che usa.

Il paradosso dell’efficienza: ciò che sostituisci, lo devi comunque ricostruire

La promessa della sostituzione totale non regge alla prova dell’organizzazione reale. Klarna ha fatto l’annuncio trionfale: 700 operatori rimpiazzati da IA. Poi, il ritorno al mondo: un terzo delle conversazioni richiede ancora un umano. E si scopre che l’efficienza pura genera inefficienze strutturali. Quello che chiami “risparmio” oggi lo paghi domani in danno reputazionale, escalation di reclami, caos sistemico.

Satya Nadella continua a reclutare ingegneri. Nonostante Copilot. Perché sa che automatizzare il codice non equivale a comprendere il problema. Sundar Pichai parla di “accelerazione”, non di sostituzione. Ma Silicon Valley non ascolta. Corre, automatizza, e poi inciampa.

Il paradosso della scala: ciò che hai in abbondanza non basta

La Mayo Clinic ha accumulato 1,2 milioni di vetrini patologici in 10 anni per addestrare un modello diagnostico. Risultato: il modello è meno affidabile dei medici. Perché? Perché la realtà non è normalizzata. Le condizioni rare sono rare anche nei dati. Non basta la quantità, serve la qualità strutturale dell’eccezione.

L’intelligenza, quella vera, non lavora per pattern ricorrenti, ma per intuizioni in condizioni ambigue. I dati non ti salveranno. Ti rassicurano, ma non pensano. E la patologia, come l’esistenza, è spesso un caso limite.

Il paradosso del linguaggio: ciò che suona intelligente non lo è

I LLM sono straordinari generatori di forma. Ma dietro la sintassi perfetta c’è un vuoto semantico. Sono sistemi che producono frasi credibili su base statistica. Non pensano, non sanno. Come ha scritto Apple nel suo report “The Illusion of Thinking”, la loro accuratezza “collassa oltre certe soglie di complessità”. In altre parole: l’apparenza del ragionamento non è ragionamento.

Brooks è più diretto: “sono dei cazzari finché non li ancoriamo alla realtà”. Ma il mercato li adora. Perché l’illusione è più vendibile della verità. E allora si moltiplicano i pitch, le demo, i video virali. Ma se la risposta sembra intelligente solo perché suona bene, allora siamo passati dall’ingegneria al marketing. E sarà difficile tornare indietro.

Il paradosso del desiderio: ciò che volevi non ti serve davvero

I generatori video da testo sono l’ultimo giocattolo del capitalismo computazionale. Affascinanti, certo. Inutili, spesso. Dopo l’iniziale euforia, l’effetto wow evapora. Perché l’incanto tecnologico non è usabilità. Gli utenti quelli veri, che muovono merci, persone, capitali non vogliono novità spettacolari. Vogliono ROI. Continuità operativa. Soluzioni che risolvano problemi umani, non esercizi di stile algoritmico.

La domanda vera non è se una tecnologia è impressionante. È se serve a qualcosa che importa davvero. La logistica globale non investirà miliardi per un video generato da prompt. Ma lo farà per un algoritmo che riduce ritardi del 2%. Questo è il terreno dello scontro tra immaginazione narcisistica e realtà operativa.


C’è una lezione, forse, in tutto questo. Ma non è tecnica. È quasi ontologica. L’errore delle big tech è aver confuso la complessità computazionale con la profondità cognitiva. Aver scambiato l’eloquenza del sistema con la comprensione del mondo. Aver dimenticato che l’intelligenza non è una proprietà che si implementa, ma una modalità che si riconosce.

Come diceva Didone nell’Eneide, “Agnosco veteris vestigia flammae”. Non riconosce qualcosa. Riconosce un modo di accadere, una forma dell’esperienza che riaffiora. L’intelligenza come l’amore, come la libertà non è un oggetto. È un pattern nel tempo, una traiettoria che solo l’umano può osservare.

Forse è da lì che bisogna ripartire. Dalla domanda che i manager della Silicon Valley non vogliono più farsi:
“Che cosa significa essere intelligenti?”
Non per la macchina. Per noi.

Fonti