https://substack-video.s3.amazonaws.com/video_upload/post/176425744/248940bd-cafb-4de4-bf60-6b24fae0fa2e/transcoded-1760720000.png

Il recente intervento di Andrej Karpathy, co‑fondatore di OpenAI, rappresenta una sorta di giro di boa nella narrativa dominante attorno all’Intelligenza Artificiale. Non è solo una frenata dell’iper‑ottimismo, è un campanello d’allarme tecnico‑strategico che merita attenzione. Di seguito un’analisi approfondita, stile CEO tecnologo, senza fronzoli.

Il messaggio essenziale

Karpathy ha dichiarato che “i modelli non sono lì” (“the models are not there”) e che l’industria dell’IA sta facendo un salto troppo grande, troppo presto.In particolare, sostiene che per arrivare a una vera IA autonoma, agente multimodale, in grado di apprendere continuamente e ragionare in modo robusto, serviranno almeno dieci anni.

Hype vs. realtà

La keyword principale qui è “IA autonoma” o “agentic AI”. Le keyword semantiche correlate che dobbiamo tenere a mente sono “ragionamento strutturato”, “apprendimento continuo” e “multimodalità”. Karpathy afferma che i sistemi attuali sono forti in compiti ristretti (generazione di testo, completamento) ma carenti in ragionamento a lungo termine, pianificazione, memoria persistente, e interazione multimodale. Gli esempi che cita parlano di “modelli che partono ogni volta da zero nella finestra di contesto”, che non ricordano informazioni da una sessione all’altra e non sanno «usare» un computer come un agente umano.

In altre parole, mentre il mercato e i media parlano di “anno dell’agente” e “AGI dietro l’angolo”, Karpathy dice che è più ragionevole parlare di “decennio dell’agente”.

Perché questa visione ha peso

Karpathy non è un outsider nostalgico: è uno che ha guidato team AI, ha diretto l’IA in Tesla, Inc. ed è stato in prima linea nella definizione dell’ecosistema dei modelli di linguaggio. È quindi significativo che dia segnali di cautela.

In più, la sua analisi tecnica entra nei dettagli: ad esempio critica come l’apprendimento per rinforzo (RL) venga sovrastimato, e come i modelli siano eccessivamente memoriosi, troppo “compressi” su dati internet di bassa qualità (internet = “slop”, spazzatura), piuttosto che dotati di un vero substrato cognitivo.

Le implicazioni per il mercato e la strategia aziendale

Dal punto di vista di un CTO/CEO e so che questa prospettiva ti è familiare il messaggio è rilevante. Prima: se credi nella narrativa “AGI imminente”, potresti sovrastimare la tempistica e sottovalutare i rischi tecnici e operativi. Karpathy suggerisce che i problemi restano “difficili ma risolvibili”, non banali.

Secondo: l’euforia attuale su agenti autonomi, modelli che lavorano da soli, può generare aspettative errate, sovrainvestimenti prematuri e “software slop” (termine che lui stesso ha usato).

Terzo: per chi fa strategia digitale, trasformazione aziendale e IA applicata (come te), il messaggio è “investire in basi solide” piuttosto che puntare tutto su hype. Ad esempio, concentrarsi su sistemi ibridi uomo‑macchina, su assistenti intelligenti ma guidati da un umano, piuttosto che su agenti completamente autonomi.

Curiosità e note provocatorie

Una citazione: “Il mondo cambia da 2% di crescita del GDP da secoli — non vedo un’esplosione esponenziale” (suggerendo che l’AGI non sarà un salto improvviso). In un mondo dove tutti parlano di “singolarità” e “esplosione di intelligenza”, Karpathy pare dire: «Ragazzi, riguarda che siamo ancora nella fila all’ingresso».

Ironicamente, se tutti i media sono entusiasti delle imprese “riduce tutto a zero‑click grazie all’IA agente”, lui dice che i modelli non ricordano nulla, ripartono sempre da zero. Una metafora perfetta per “agenti” che non hanno memoria: come se ogni mattina tornassero al lavoro e dimenticassero tutto quel che hanno fatto ieri.

Quali sono i nettamente “buchi” tecnici che evidenzia

Tra i tanti, questi emergono come fondamentali:

  • Continual learning: la capacità dell’agente di ricordare e apprendere da esperienze passate, non solo da prompt istantaneo.
  • Multimodalità e interazione col mondo: non solo testo, ma visione, azione, uso del computer, ambiente fisico.
  • Ragionamento strutturato e pianificazione: andare oltre la regressione testuale verso comportamenti che siano integrati e coerenti.
  • Qualità dei dati: internet come dataset è “terribile” per lui, pieno di spazzatura, richiedendo modelli enormi solo per “memorizarla” piuttosto che ricavarne vera cognizione.
  • Modello collasso (“model collapse”): auto‑riferimento, perdita di diversità delle risposte, output prevedibili e non innovativi.

Impatto su investimento, innovazione e rischio

Se l’orizzonte è di dieci anni, allora le aziende e gli investitori che puntano su “autonomi agenti che sostituiscono l’uomo entro 2026” potrebbero dover rivedere i loro piani. Il rischio è doppio: tecnologia più lenta a maturare + aspettative troppo alte = valore non realizzato.

Dal punto di vista operativo, questo suggerisce di preferire progetti “incrementali”, dove l’IA lavora in affiancamento all’uomo, in contesti ben definiti, anziché scommettere su automi generali che “fanno tutto”. Strategicamente, un CEO tecnologo dovrebbe rifocalizzarsi su vantaggi applicati e concreti (ottimizzazione, automazione parziale, IA ibrida) piuttosto che sulla promessa futuristica.

Un invito al realismo creativo

Quanto detto non deve essere interpretato come “l’IA non vale nulla”. Al contrario: l’IA è un catalizzatore potente, ma lo è oggi in alcuni domini, e domani forse tra anni in domini più complessi. Il punto è: riconoscere i limiti, e gestire l’energia dell’innovazione con disciplina strategica.

In uno stile provocatorio, direi che molti stanno vendendo “big mac” quando la cucina è ancora in costruzione. Karpathy ci ricorda che la cucina non è ancora pronta per servire gli agenti fully‑autonomi a prezzo pieno.