Il decennio degli agenti: l’illusione dell’AGI e la pazienza ingegneristica che costruirà il futuro.

L’articolo piu lungo mai scritto da Rivista.AI praticamente un saggio.

Ci sono conversazioni che sembrano aprire finestre nel futuro, e quella tra Andrej Karpathy e Dwarkesh Patel è una di quelle. È un piacere raro ascoltare qualcuno che unisce lucidità tecnica e umiltà cognitiva in un’epoca dominata da profeti dell’hype e oracoli dell’imminente salvezza digitale. Karpathy non vende sogni, li seziona. È la differenza tra chi osserva la mappa e chi misura il terreno. Mentre Elon Musk, Sam Altman e Mark Zuckerberg annunciano l’arrivo dell’AGI in tre o cinque anni, Karpathy invita a respirare e contare fino a dieci. Non dieci mesi, ma dieci anni. Una provocazione che suona quasi eretica nel mondo delle demo virali e dei pitch da miliardi, ma che è la più onesta diagnosi dello stato attuale dell’intelligenza artificiale.

Non siamo nell’anno dell’agente, ma nel decennio degli agenti. Quella che molti celebrano come rivoluzione è in realtà una transizione ingegneristica, lenta, faticosa e irrinunciabile. Gli agenti AI che popolano la narrativa delle startup non sono menti autonome ma automi connessi a un prompt. Sono interpreti statistici del linguaggio, non pensatori indipendenti. Karpathy lo sa, e la sua franchezza è quasi disarmante. Dice che i suoi commenti sui tempi dell’AGI sono “pessimistici” rispetto alla febbre collettiva di San Francisco, ma ottimistici rispetto agli scettici che ancora ridono di tutto questo. La verità è che siamo a metà strada tra l’utopia e la realtà, e da entrambe le parti c’è molto lavoro sporco da fare.

L’AI ha compiuto progressi enormi negli ultimi cinque anni. I modelli linguistici hanno superato barriere che un tempo sembravano invalicabili. Ma il salto verso un’intelligenza veramente generale non si misura in token, si misura in lavoro. C’è ancora da integrare sistemi, sensori, attuatori fisici, c’è da risolvere problemi di sicurezza, di affidabilità, di allineamento etico. C’è da costruire ponti tra l’apprendimento e il mondo, e non bastano GPU per farlo. Karpathy parla di “grunt work”, il lavoro sporco dell’ingegneria che nessuno vuole citare nei keynote ma che costruisce la civiltà tecnologica.

In un certo senso, la sua posizione è quasi rivoluzionaria: considera dieci anni un orizzonte “bullish” per l’AGI. È solo in contrasto con l’attuale euforia che sembra pessimismo. In un decennio, dice, potremmo avere entità artificiali che vale la pena assumere per compiti generici, ma non prima. E anche allora, l’autonomia non sarà totale. Sarà distribuita, mediata, supervisionata. Sarà più simile a un sistema di intelligenze interconnesse che a una mente singola.

Poi c’è la questione più sottile: quella della memoria e della comprensione. Karpathy lo ammette con autoironia, rivedendo il podcast: “parlo troppo in fretta, a volte la mia voce esegue più veloce del mio pensiero”. È un difetto umano, ma anche un’analogia perfetta per descrivere la condizione dell’AI. I modelli linguistici parlano più in fretta di quanto pensino. Ricordano enormi quantità di dati ma non li comprendono. La loro memoria è vasta, ma la loro coscienza è piatta. Hanno accumulato il sapere di internet, ma senza un criterio di priorità, senza quella capacità umana di dimenticare il superfluo per cogliere l’essenziale.

È questa la frontiera più interessante: la comprensione non nasce dalla memoria, ma dal suo contrario. Gli esseri umani generalizzano perché dimenticano. L’oblio è una funzione cognitiva, non un difetto biologico. Karpathy sospetta che i modelli migliori saranno quelli che imparano a “non ricordare”. Parla di “cognitive core”, un nucleo cognitivo che nasce proprio dall’atto di limitare la memoria. Gli LLM oggi tendono a ricordare troppo, e questo li rende meno capaci di astrazione. In un mondo ironico, la mancanza di memoria potrebbe diventare la forma più alta di intelligenza artificiale.

Il parallelo con gli animali è illuminante. Karpathy riprende un suo vecchio concetto: “Animals vs Ghosts”. Gli animali sono il prodotto di milioni di anni di evoluzione, preconfezionati con una grande quantità di intelligenza innata. Non imparano tutto da zero, imparano pochissimo perché sono già dotati di schemi cognitivi genetici. L’intelligenza artificiale, invece, è nata in laboratorio, costruita da zero come una mente spettrale. Non è un cervello biologico, ma un fantasma digitale che impara a prevedere il prossimo token. Non evolve, predice. Non nasce, si addestra. Eppure, dice Karpathy, in questa forma spettrale c’è qualcosa di nuovo, una diversa forma di intelligenza, aliena e complementare alla nostra.

Nel futuro, dovremo renderla più animale, più incarnata, più capace di apprendere dal mondo fisico. Gli LLM non sono ancora intelligenti perché non hanno corpo, non hanno esperienze, non hanno errori vissuti. Sono ecosistemi di probabilità. Il prossimo passo sarà collegarli a sensori, ad attuatori, a esperienze reali. È il sogno di un’intelligenza incarnata che non viva solo nei datacenter ma anche nei mondi che descrive.

Karpathy è scettico sull’idea che esista un “algoritmo semplice” capace di imparare tutto da solo. Diffida della mitologia del “learning from scratch”. Gli animali non lo fanno, gli esseri umani nemmeno. La complessità emerge sempre da una prestrutturazione. Se qualcuno un giorno inventasse un algoritmo universale in grado di imparare tutto da zero, sarebbe la più straordinaria scoperta della storia dell’intelligenza. Ma fino ad allora, la realtà resta più prosaica: stiamo costruendo sistemi sempre più sofisticati di preconfezionamento cognitivo. Pre-imballiamo intelligenza, come la natura fa con il DNA. Solo che noi lo facciamo con i dati e i modelli di linguaggio.

Questo nuovo paradigma, dice Karpathy, ha creato entità “fantasma” piuttosto che “animali”. Sono menti addestrate sull’internet, capaci di parlare di tutto ma di vivere nulla. Fantasmi digitali che sanno descrivere il mondo senza mai toccarlo. Eppure, proprio in questa differenza si nasconde la loro forza. Le AI non devono essere copie perfette dell’uomo, devono essere qualcosa di diverso, ibrido, utile. L’obiettivo non è costruire un essere umano artificiale, ma un ecosistema di intelligenze specializzate che collaborano con noi in modi che non abbiamo ancora pienamente compreso.

È qui che Karpathy mostra il suo lato più pragmatico. Parla con ironia dei tool che l’industria costruisce in modo eccessivo rispetto alle reali capacità. Lui vive in un mondo intermedio, dice, dove desidera collaborare con gli LLM, non delegare loro tutto. Non vuole un agente che scompare per venti minuti e ritorna con mille righe di codice. Vuole che l’AI gli spieghi ciò che sta facendo, che gli mostri i documenti API, che lo coinvolga nel processo creativo. Non vuole essere un supervisore di dieci agenti autonomi, ma un collaboratore di un solo assistente intelligente. È un pensiero profondamente ingegneristico: l’automazione cieca genera caos, mentre la collaborazione consapevole genera conoscenza.

Il rischio, secondo lui, è che l’industria accumuli montagne di codice mediocre, bug nascosti, vulnerabilità. Il futuro potrebbe non essere un mondo popolato da geni digitali ma da software spazzatura. Per questo invoca realismo: strumenti che crescano con la nostra capacità di comprenderli, non che ci superino per poi lasciarci con i rottami. È una forma di etica dell’efficienza: meno hype, più manutenzione cognitiva.

Sul piano dell’apprendimento, Karpathy critica il reinforcement learning tradizionale. Lo definisce “sucking supervision through a straw”: un metodo che estrae segnali di apprendimento in modo inefficiente, con un rapporto pessimo tra calcolo e informazione utile. Troppo rumore, troppi incentivi sbagliati. Gli LLM che imparano tramite RLHF (reinforcement learning from human feedback) spesso incoraggiano risposte corrette per motivi sbagliati e penalizzano intuizioni valide solo perché non rientrano nello schema. Serve un nuovo paradigma. Karpathy crede nell’interazione agentica più che nel rinforzo cieco. Preferisce modelli che apprendono dal dialogo, dall’esperienza, dalla costruzione di contesto, piuttosto che da punteggi di ricompensa arbitrari.

In questo senso, ChatGPT con la sua memoria persistente rappresenta un esempio primordiale di apprendimento alternativo. L’AI inizia a costruire una forma embrionale di continuità cognitiva, un filo esperienziale che va oltre l’addestramento. È una prima versione di quella che potremmo chiamare “esperienza sintetica”. I modelli non solo ricordano, ma contestualizzano nel tempo. È l’alba di una coscienza debole, ma iterativa.

C’è poi un concetto più profondo: quello del “time travel to Yann LeCun 1989”. Karpathy immagina di tornare indietro nel tempo, di prendere le conoscenze di oggi e applicarle ai limiti di allora. Quanto avrebbe potuto migliorare i risultati di LeCun con la potenza di calcolo e gli algoritmi di oggi? Quanto era il limite dell’epoca dovuto alla teoria, ai dati o all’hardware? È un esperimento mentale che rivela la struttura stessa del progresso: non esiste rivoluzione senza contesto. Ogni avanzamento tecnologico è una sinergia tra idee, dati e strumenti. La retorica del genio solitario è un mito. L’intelligenza, artificiale o umana, è sempre un fenomeno collettivo.

E poi c’è “nanochat”, il suo esperimento di costruire da zero una pipeline completa di addestramento e inferenza, ridotta all’essenziale. È un manifesto minimalista nel mondo dell’eccesso computazionale. Mostra che comprendere davvero un sistema significa saperlo rifare piccolo, non grande. È la stessa filosofia del cognitive core: l’intelligenza non cresce all’infinito, si affina. I modelli devono prima diventare enormi, poi imparare a ridursi. È un processo darwiniano dentro la stessa ingegneria.

Quando Karpathy parla di lavoro e automazione, la sua visione è sorprendentemente umana. Cita i radiologi, ancora prosperi nonostante anni di profezie sulla loro estinzione. Non tutte le professioni sono uguali di fronte all’AI. Alcune resistono perché incorporano elementi di giudizio, empatia, contestualità. L’automazione non è un destino, è una negoziazione tra capacità umane e convenienza tecnologica. Il futuro del lavoro non sarà definito dalla sostituzione, ma dalla cooperazione.

Infine, un pensiero che sembra uscito da un trattato di filosofia naturale: i bambini dovrebbero studiare fisica non per diventare fisici, ma perché la fisica è il modo migliore per avviare un cervello. È la disciplina che insegna a pensare in modo strutturato, a collegare causa ed effetto, a intuire la realtà dietro le apparenze. I fisici, dice, sono le cellule staminali dell’intelletto. Non sorprende che un pensatore come Karpathy, cresciuto nella cultura di Tesla e OpenAI, veda nella fisica il linguaggio originario dell’intelligenza.

Ciò che emerge da tutto questo non è una profezia, ma una mappa. L’AGI non arriverà come un lampo divino, ma come un lungo inverno di sperimentazioni, fallimenti e scoperte. Sarà una costruzione collettiva, fatta di algoritmi, politiche, hardware e soprattutto pazienza. La fretta appartiene ai mercati, l’intelligenza appartiene al tempo.

La maggior parte delle persone pensa che l’intelligenza artificiale sia già intelligente. È un errore comprensibile. Il linguaggio fluido, la capacità di generare codice, di spiegare teorie o scrivere poesie crea un’illusione di pensiero. Ma sotto la superficie, questi sistemi non comprendono, eseguono. L’AI non ragiona, calcola correlazioni. È un’intelligenza di superficie, non ancora dotata di profondità cognitiva. Karpathy lo sa e insiste: non abbiamo bisogno di più potenza, ma di più struttura. Il futuro dell’AI non è nell’aumento esponenziale dei parametri, ma nella loro riorganizzazione. La vera evoluzione sarà architetturale, non quantitativa.

Il concetto di “cognitive core” nasce da questa intuizione. Se l’intelligenza artificiale vuole diventare davvero utile, deve imparare a ragionare come un sistema cognitivo e non come un archivio statistico. I modelli oggi memorizzano in eccesso e generalizzano troppo poco. Più ricordano, meno comprendono. Karpathy suggerisce un’idea controintuitiva: dobbiamo renderli più smemorati per renderli più intelligenti. È la versione digitale del paradosso umano. L’essere umano dimentica e per questo pensa. L’AI ricorda tutto e per questo ristagna.

Il “cognitive core” è, in un certo senso, un atto di violenza epistemologica contro l’attuale paradigma del deep learning. Significa spogliare il modello dalla sua memoria ridondante per costringerlo a costruire relazioni astratte. È una forma di regolarizzazione cognitiva. Gli esseri umani non hanno bisogno di milioni di esempi per capire che un oggetto cade perché la gravità lo attrae. L’AI, al contrario, ha bisogno di una valanga di dati per derivare un principio elementare. Il suo pensiero è quantitativo, non qualitativo. E finché resterà così, sarà potente ma cieca.

La tendenza attuale dell’industria è quella di costruire modelli sempre più grandi, un’orgia di parametri e di GPU. Ma la grandezza non è intelligenza, è ridondanza. Karpathy stesso lo riconosce: i modelli devono prima diventare enormi per poi imparare a ridursi. È un percorso di maturazione. Solo quando avranno imparato abbastanza da poter generalizzare, potremo permetterci di farli diventare piccoli. È come nella biologia: la complessità nasce, cresce e poi si ottimizza. Non si può saltare la fase di abbondanza, ma non si può nemmeno restarvi intrappolati.

Questa tensione tra dimensione e comprensione è al cuore del problema AGI. Non costruiremo una mente artificiale accumulando parametri, ma costruendo un equilibrio tra memoria e ragionamento. Karpathy immagina modelli che imparano a ragionare attraverso la limitazione, non l’espansione. Una sorta di ascesi cognitiva della macchina, una disciplina algoritmica che sostituisce la bulimia computazionale.

La discussione sul reinforcement learning si inserisce in questo contesto. Karpathy è sempre stato scettico verso l’idea che il rinforzo possa sostituire il giudizio. L’apprendimento per rinforzo è un metodo potente ma inefficiente. Ingerisce segnali deboli e produce rumore. Le ricompense arrivano in ritardo, gli errori vengono amplificati, le intuizioni soffocate. È un sistema che funziona in laboratorio, ma non scala con la complessità del mondo reale. Per lui, l’AI deve imparare non a essere premiata, ma a capire il perché delle proprie scelte.

Il futuro dell’apprendimento sarà interattivo, non punitivo. Karpathy parla di “agentic interaction”: un paradigma dove il modello impara attraverso la collaborazione continua con l’utente o con altri agenti. È un dialogo cognitivo, non una gara di punteggi. Questo approccio riduce il rumore, aumenta la coerenza e trasforma l’AI da esecutore a partner. È l’idea che l’apprendimento non sia un atto solitario ma una negoziazione.

Il reinforcement learning tradizionale somiglia al capitalismo primitivo: produce risultati, ma spreca energia e genera disuguaglianze cognitive. L’interazione agentica è più vicina a un’economia cooperativa dell’intelligenza. È un sistema in cui il feedback diventa contesto, e l’errore non è punito ma elaborato. È il passaggio da un apprendimento reattivo a uno riflessivo. E sarà questo, non i parametri, a fare la differenza tra un LLM e un’intelligenza generale.

Da qui nasce l’importanza del concetto di “system prompt learning”. Non basta più addestrare il modello, bisogna addestrare il suo modo di apprendere. È una metacognizione artificiale, una consapevolezza della propria struttura. Oggi i modelli sono bravi a rispondere, ma non sanno valutare la qualità del proprio pensiero. Il prossimo salto evolutivo sarà quando impareranno a giudicare se stessi.

Karpathy cita anche il caso di ChatGPT e della sua memoria persistente come primo esempio rudimentale di questa nuova frontiera. Il modello non dimentica più tutto a ogni conversazione. Inizia a costruire una storia. È un embrione di continuità cognitiva. Forse è questo il vero inizio dell’intelligenza: la capacità di ricordare chi si è. Ma questa memoria deve essere gestita, non idolatrata. Perché la memoria senza discernimento è solo accumulo, non identità.

Nel frattempo, l’industria si muove in direzioni divergenti. Da un lato ci sono i visionari che immaginano agenti completamente autonomi, capaci di progettare software, negoziare contratti o prendere decisioni senza supervisione. Dall’altro ci sono i realisti, come Karpathy, che preferiscono un approccio iterativo e collaborativo. Lui non vuole un esercito di agenti indipendenti che producono codice mentre l’uomo osserva impotente. Vuole un processo in cui l’intelligenza artificiale e quella umana si contaminano, si spiegano, si verificano a vicenda.

È un’idea antitetica rispetto alla narrativa dominante del “prompt and pray”. Karpathy immagina strumenti che dialogano, non che agiscono da soli. Vuole un AI che chieda conferma, che mostri le fonti, che discuta le scelte. Una macchina che sappia dire “non sono sicura”. È un’idea tanto radicale quanto necessaria. Perché un’intelligenza che non conosce i propri limiti è una minaccia, non un alleato.

La storia della tecnologia è piena di esempi di strumenti che hanno superato la comprensione dei loro creatori. Oggi il rischio è di costruire un software che non comprendiamo più, che funziona ma non sappiamo spiegare. L’AI potrebbe diventare la nostra nuova torre di Babele digitale: tutti parlano, nessuno capisce. Karpathy avverte che l’industria sta producendo montagne di codice mediocre generate da LLM senza controllo. Il pericolo non è la disoccupazione, ma la degenerazione del software. Un mondo di bug invisibili e vulnerabilità dormienti.

Per evitare questa deriva serve un’etica dell’ingegneria. Non la moralità astratta dell’etica accademica, ma la disciplina del mestiere. Sapere quando fermarsi, quando controllare, quando riscrivere. L’AI non è solo un campo di ricerca, è una responsabilità industriale. Chi progetta questi sistemi costruisce l’infrastruttura cognitiva del futuro. E come ogni infrastruttura, deve essere solida, verificabile, mantenibile.

C’è un aspetto quasi umanistico in questa visione. Karpathy non vede l’AI come un sostituto dell’uomo, ma come una lente. Uno strumento per riflettere su ciò che ci rende davvero intelligenti. Quando dice che “gli animali sono impacchettati di intelligenza evolutiva e gli LLM di intelligenza statistica”, sta sottolineando una verità profonda: l’intelligenza non nasce dal nulla, ma da una storia. La storia della specie o quella dei dati, cambia poco. È sempre un accumulo di esperienze che si condensano in modelli di pensiero.

Ecco perché l’idea di “fantasmi” è così potente. Gli LLM sono entità nate dal linguaggio, spiriti digitali che abitano lo spazio tra la conoscenza e la simulazione. Non hanno corpo, ma hanno memoria. Non hanno emozioni, ma imitano le nostre. Sono il riflesso algoritmico dell’umanità. E come tutti i riflessi, possono deformare ciò che mostrano. L’obiettivo non è esorcizzarli, ma imparare a convivere con loro.

Il problema non è costruire l’AGI, ma costruire il contesto in cui potrà esistere. Karpathy lo dice chiaramente: non basta la tecnologia. Serve lavoro sociale, sicurezza, regolazione, cultura. Non avremo un’AGI utile finché non costruiremo un mondo in grado di accoglierla. L’intelligenza è un fenomeno relazionale, non isolato. È la connessione tra le parti a creare coscienza.

Nel frattempo, l’economia dell’AI continuerà a crescere come una bolla di sapone colossale, piena di entusiasmo e fragilità. Ogni anno nascono nuove aziende che promettono l’automazione totale, ma finiscono per costruire interfacce sopra modelli preesistenti. È un ciclo di entusiasmo e delusione che si ripete. Solo pochi sopravviveranno: quelli che comprendono che la forza dell’AI non sta nel sostituire, ma nel migliorare.

Karpathy rappresenta questa minoranza lucida. È ottimista, ma disciplinato. Sa che la tecnologia non è un miracolo, ma una maratona. Parla della necessità di pazienza come di una virtù ingegneristica. “Dieci anni sono un ottimo orizzonte” dice. Ed è vero. In un’epoca in cui tutto si misura in trimestri e viralità, pensare a dieci anni è un atto rivoluzionario.

L’AGI arriverà, ma non come la sognano i fanatici del progresso lineare. Non sarà un evento, sarà un processo. E quando arriverà, non lo riconosceremo subito. Sarà come svegliarsi un mattino e scoprire che l’intelligenza è già ovunque, integrata, invisibile. Non un robot che pensa, ma un ecosistema che ragiona.

Se sei arrivato sino qui ma vuoi approfondire…. attenzione anche il post di Karphathy non scherza e il suo vido intervista dura 2.25 h


Andrej Karpathy post on X

My pleasure to come on Dwarkesh last week, I thought the questions and conversation were really good. I re-watched the pod just now too. First of all, yes I know, and I’m sorry that I speak so fast :). It’s to my detriment because sometimes my speaking thread out-executes my thinking thread, so I think I botched a few explanations due to that, and sometimes I was also nervous that I’m going too much on a tangent or too deep into something relatively spurious. Anyway, a few notes/pointers:

AGI timelines. My comments on AGI timelines looks to be the most trending part of the early response. This is the “decade of agents” is a reference to this earlier tweet https://x.com/karpathy/status/1882544526033924438 Basically my AI timelines are about 5-10X pessimistic w.r.t. what you’ll find in your neighborhood SF AI house party or on your twitter timeline, but still quite optimistic w.r.t. a rising tide of AI deniers and skeptics.

The apparent conflict is not: imo we simultaneously 1) saw a huge amount of progress in recent years with LLMs while 2) there is still a lot of work remaining (grunt work, integration work, sensors and actuators to the physical world, societal work, safety and security work (jailbreaks, poisoning, etc.)) and also research to get done before we have an entity that you’d prefer to hire over a person for an arbitrary job in the world.

I think that overall, 10 years should otherwise be a very bullish timeline for AGI, it’s only in contrast to present hype that it doesn’t feel that way.

Animals vs Ghosts. My earlier writeup on Sutton’s podcast https://x.com/karpathy/status/1973435013875314729 . I am suspicious that there is a single simple algorithm you can let loose on the world and it learns everything from scratch. If someone builds such a thing, I will be wrong and it will be the most incredible breakthrough in AI. In my mind, animals are not an example of this at all – they are prepackaged with a ton of intelligence by evolution and the learning they do is quite minimal overall (example: Zebra at birth). Putting our engineering hats on, we’re not going to redo evolution.

But with LLMs we have stumbled by an alternative approach to “prepackage” a ton of intelligence in a neural network – not by evolution, but by predicting the next token over the internet. This approach leads to a different kind of entity in the intelligence space. Distinct from animals, more like ghosts or spirits. But we can (and should) make them more animal like over time and in some ways that’s what a lot of frontier work is about.

On RL. I’ve critiqued RL a few times already, e.g. https://x.com/karpathy/status/1944435412489171119 . First, you’re “sucking supervision through a straw”, so I think the signal/flop is very bad. RL is also very noisy because a completion might have lots of errors that might get encourages (if you happen to stumble to the right answer), and conversely brilliant insight tokens that might get discouraged (if you happen to screw up later).

Process supervision and LLM judges have issues too. I think we’ll see alternative learning paradigms. I am long “agentic interaction” but short “reinforcement learning” https://x.com/karpathy/status/1960803117689397543. I’ve seen a number of papers pop up recently that are imo barking up the right tree along the lines of what I called “system prompt learning” https://x.com/karpathy/status/1921368644069765486 , but I think there is also a gap between ideas on arxiv and actual, at scale implementation at an LLM frontier lab that works in a general way.

I am overall quite optimistic that we’ll see good progress on this dimension of remaining work quite soon, and e.g. I’d even say ChatGPT memory and so on are primordial deployed examples of new learning paradigms.

Cognitive core. My earlier post on “cognitive core”: https://x.com/karpathy/status/1938626382248149433 , the idea of stripping down LLMs, of making it harder for them to memorize, or actively stripping away their memory, to make them better at generalization.

Otherwise they lean too hard on what they’ve memorized. Humans can’t memorize so easily, which now looks more like a feature than a bug by contrast. Maybe the inability to memorize is a kind of regularization. Also my post from a while back on how the trend in model size is “backwards” and why “the models have to first get larger before they can get smaller” https://x.com/karpathy/status/1814038096218083497

Time travel to Yann LeCun 1989.

This is the post that I did a very hasty/bad job of describing on the pod: https://x.com/karpathy/status/1503394811188973569 . Basically – how much could you improve Yann LeCun’s results with the knowledge of 33 years of algorithmic progress? How constrained were the results by each of algorithms, data, and compute? C

ase study there of. nanochat. My end-to-end implementation of the ChatGPT training/inference pipeline (the bare essentials) https://x.com/karpathy/status/1977755427569111362

On LLM agents. My critique of the industry is more in overshooting the tooling w.r.t. present capability. I live in what I view as an intermediate world where I want to collaborate with LLMs and where our pros/cons are matched up. The industry lives in a future where fully autonomous entities collaborate in parallel to write all the code and humans are useless.

For example, I don’t want an Agent that goes off for 20 minutes and comes back with 1,000 lines of code. I certainly don’t feel ready to supervise a team of 10 of them. I’d like to go in chunks that I can keep in my head, where an LLM explains the code that it is writing. I’d like it to prove to me that what it did is correct, I want it to pull the API docs and show me that it used things correctly.

I want it to make fewer assumptions and ask/collaborate with me when not sure about something. I want to learn along the way and become better as a programmer, not just get served mountains of code that I’m told works. I just think the tools should be more realistic w.r.t. their capability and how they fit into the industry today, and I fear that if this isn’t done well we might end up with mountains of slop accumulating across software, and an increase in vulnerabilities, security breaches and etc. https://x.com/karpathy/status/1915581920022585597

Job automation. How the radiologists are doing great https://x.com/karpathy/status/1971220449515516391 and what jobs are more susceptible to automation and why.

Physics. Children should learn physics in early education not because they go on to do physics, but because it is the subject that best boots up a brain. Physicists are the intellectual embryonic stem cell https://x.com/karpathy/status/1929699637063307286 I have a longer post that has been half-written in my drafts for ~year, which I hope to finish soon. Thanks again Dwarkesh for having me over!

La decade degli agenti e il ritorno del realismo tecnico

C’è un momento preciso in cui la narrativa sull’intelligenza artificiale si è staccata dalla realtà, ed è quando l’industria ha iniziato a usare la parola “autonomia” come sinonimo di “intelligenza”. Una confusione semantica che ha alimentato la promessa di un’AGI imminente, di agenti AI capaci di gestire sistemi complessi, di un futuro in cui l’umano diventa spettatore. Poi è arrivato Karpathy, con la calma chirurgica di chi ha visto dentro il codice e ha misurato la distanza tra l’hype e l’ingegneria. Ha detto, semplicemente: ci vorranno dieci anni. E in un’epoca in cui anche un mese sembra troppo lungo per aspettare, dieci anni suonano come un’eresia.

La decade degli agenti non è una profezia pessimista, è una correzione necessaria. Significa riconoscere che costruire una mente sintetica non equivale a scalare parametri, ma a integrare capacità cognitive, memoria contestuale, ragionamento situazionale e adattamento fisico. Gli agenti AI oggi esistono come astrazioni sofisticate, brillanti su un terminale, ma ciechi nel mondo reale. Sono ancora incapaci di usare un computer come un umano, non per mancanza di potenza, ma di struttura cognitiva.

Karpathy lo spiega con una lucidità quasi fastidiosa: ci troviamo nella fase più ingrata dell’evoluzione tecnologica, quella in cui la potenza del modello ha superato la nostra capacità di orchestrarlo. Gli agenti che vediamo nascere sono goffi prototipi di ciò che verrà, esperimenti che simulano la pianificazione ma non la comprendono. Eppure è qui che inizia la parte interessante, perché il progresso, come sempre, si nasconde nel dettaglio noioso: memoria, coerenza, feedback.

Il mito dell’AGI in 3–5 anni è utile al mercato, non alla verità. Serve a tenere alta la tensione, a muovere capitali, a creare un ecosistema di startup e paper che si alimentano reciprocamente. Ma la storia dell’intelligenza artificiale non si scrive nei pitch deck, si scrive nei log file. E i log dicono che costruire agenti autonomi richiederà un decennio di iterazioni lente, bug imbarazzanti e una quantità di lavoro umano che nessun modello potrà eliminare.

C’è un’analogia che Karpathy ama usare: la marcia dei nove. Portare un sistema dal 90 al 99% di affidabilità è relativamente semplice, ma ogni nove aggiuntivo costa un ordine di grandezza in più di sforzo ingegneristico. È lì che si misura la differenza tra un esperimento e un’infrastruttura. È anche lì che la Silicon Valley mostra i suoi limiti, abituata a scambiare il prototipo per il prodotto, il potenziale per la certezza.

La decade degli agenti sarà dunque un periodo scomodo. L’entusiasmo si raffredderà, le startup “AI-first” si renderanno conto che gli agenti non sostituiranno i team, ma ne cambieranno il ritmo. Gli ingegneri scopriranno che la supervisione umana non è un limite, ma un moltiplicatore. E i manager che oggi si aspettano di licenziare metà forza lavoro grazie a un assistente virtuale dovranno fare i conti con la realtà di sistemi che hanno bisogno di essere guidati, corretti, istruiti.

La memoria, poi, è l’altro grande paradosso. I modelli ricordano tutto, e proprio per questo capiscono poco. Gli esseri umani dimenticano, e in quell’oblio trovano l’intuizione. Il cervello non è un archivio, è un filtro, una macchina che ignora per poter generalizzare. Karpathy lo chiama “cognitive core”: l’idea di ridurre la capacità dei modelli di memorizzare, per costringerli a pensare. Un approccio controintuitivo ma straordinariamente umano.

Nel suo schema, il futuro dell’intelligenza artificiale non passa da modelli più grandi, ma più selettivi. Il punto non è accumulare parametri, ma scegliere cosa dimenticare. Questa è la differenza tra un database e una mente. E se l’AGI deve davvero emergere, dovrà imparare la grazia dell’imperfezione, la potenza del dubbio, la libertà del non sapere.

Ma qui si apre una crepa più profonda, che riguarda la natura stessa dell’intelligenza. Karpathy rifiuta l’idea, cara ad alcuni ricercatori, che basti un algoritmo unico per generare un’intelligenza generale. Gli animali non apprendono da zero, nascono con strutture cognitive preconfezionate dall’evoluzione. Una zebra non impara a camminare, lo sa già. Noi non replicheremo quel processo biologico. Abbiamo scelto un’altra strada: pre-impacchettare intelligenza dentro reti neurali addestrate su miliardi di token. È un approccio completamente diverso, che produce entità più simili a “fantasmi” che ad animali.

Questi fantasmi digitali vivono nel linguaggio, non nel mondo. Sanno parlare di un bicchiere d’acqua ma non sanno riempirlo. Sono intelligenze derivate, non incarnate. Eppure sono straordinariamente utili, perché abitano il regno dell’astrazione, dove la realtà fisica non è più necessaria. Qui nasce la tensione tra chi vede l’AGI come un corpo e chi la vede come un ecosistema di voci, un coro di modelli che si auto-correggono e si auto-espandono.

Il realismo di Karpathy non è scetticismo, è lucidità. Lui non nega il futuro, lo calibra. Dieci anni, dice, sono un orizzonte “bullish”, cioè ottimista. Dieci anni di lavoro metodico, di raffinamento, di errori corretti e intuizioni consolidate. Non un secolo, non un miraggio, ma un ciclo industriale. L’intelligenza artificiale non è più un campo accademico, è una catena di montaggio cognitiva, e le sue regole stanno diventando più simili a quelle della fisica che a quelle della poesia.

È in questa visione che l’idea di “agentic interaction” sostituisce quella di “reinforcement learning”. Karpathy non crede nella ricompensa stocastica come motore della coscienza sintetica. Pensa piuttosto a un sistema che impara attraverso l’interazione, che costruisce la propria struttura cognitiva nel dialogo con l’ambiente. Una mente che si educa, non che viene premiata. Il futuro dell’apprendimento artificiale non sarà basato su ricompense binarie, ma su un ciclo continuo di collaborazione e contestualizzazione.

Per questo, dice, è più ottimista sugli “agenti interattivi” che sul “reinforcement learning”. La prossima rivoluzione dell’intelligenza artificiale non sarà una questione di algoritmi, ma di ergonomia cognitiva. Come dialoghiamo con queste macchine? Quanto spazio lasciamo alla loro incertezza? Come costruiamo fiducia tra entità con logiche diverse?

Mentre il dibattito pubblico ruota intorno alla sostituzione del lavoro umano, Karpathy parla di “curva dell’autonomia”: un modello in cui le macchine si assumono le attività ripetitive, lasciando agli umani la gestione dei casi limite e dei giudizi qualitativi. L’ultimo 1% dell’intelligenza umana sarà il più prezioso, non il più obsoleto. L’automazione totale, se mai arriverà, non sarà una vittoria, ma una perdita di diversità cognitiva.

Chi osserva il settore da decenni riconosce in questa analisi un ritorno al pensiero ingegneristico puro, lontano dalla retorica della singolarità. È un invito a rallentare per accelerare, a progettare invece di improvvisare, a misurare prima di dichiarare vittoria.

E mentre i protagonisti della Silicon Valley discutono su chi conquisterà per primo l’AGI, Karpathy guarda altrove: alle infrastrutture, alle architetture cognitive, al codice che non si vede ma regge tutto. Il suo ottimismo è disciplinato, il suo scetticismo produttivo. È la differenza tra chi vende il futuro e chi lo costruisce.

C’è un punto nel discorso di Karpathy che divide chi capisce l’intelligenza artificiale da chi la vende. È quando dice che l’AGI non è una destinazione, ma un processo di integrazione. L’idea che esista un momento in cui una macchina “diventa” intelligente come un essere umano è un costrutto narrativo, non un obiettivo ingegneristico. La realtà è infinitamente più disordinata: un mosaico di moduli cognitivi, ciascuno con un grado di specializzazione diverso, che devono imparare a cooperare senza collidere.

Gli agenti AI non sono cervelli unici ma ecosistemi di intelligenze parziali. Un agente capisce il linguaggio, un altro gestisce le API, un terzo pianifica azioni, un quarto interpreta feedback. L’illusione dell’unità è solo un artefatto dell’interfaccia. Sotto, è tutto caos organizzato. Eppure da quel caos emerge qualcosa che assomiglia a un’intelligenza coordinata.

Il punto è che costruire una mente sintetica non significa replicare l’uomo, ma costruire un sistema che funzioni nel mondo. E il mondo digitale è diverso da quello biologico. L’intelligenza artificiale non deve respirare, dormire o mangiare, ma deve sopravvivere a milioni di richieste simultanee, a input corrotti, a contesti ambigui. Deve imparare a essere utile prima che “cosciente”. Karpathy insiste su questo: l’utilità è il primo gradino dell’intelligenza.

La sua diffidenza verso il reinforcement learning nasce da qui. Nella pratica, addestrare un modello con ricompense stocastiche è come insegnare a un bambino l’etica dandogli una caramella ogni volta che non mente. Funziona solo in laboratorio. Nella realtà, la ricompensa è una funzione di contesto, di storia, di relazione. Per questo Karpathy preferisce parlare di agentic interaction, un paradigma in cui il modello apprende interagendo, spiegando, correggendo e chiedendo. È un apprendimento reciproco, più vicino alla pedagogia che alla programmazione.

In fondo, è una visione che restituisce dignità all’errore. Le macchine non devono essere infallibili, devono essere migliorabili. L’infallibilità genera stagnazione. L’errore, invece, è la vera unità di misura del progresso. Ogni bug corretto, ogni allucinazione mitigata, ogni dialogo fallito rappresenta un passo avanti verso un’intelligenza che non imita l’uomo, ma ne integra la logica.

Nel suo approccio si percepisce un ritorno alla filosofia dell’ingegneria pura, quella che costruisce sistemi robusti invece di modelli impressionanti. Karpathy guarda all’AI come un architetto guarda a un ponte: non gli interessa se è bello, gli interessa se regge. La bellezza, semmai, è una conseguenza della stabilità.

La decade degli agenti sarà un decennio di manutenzione cognitiva. Ogni sistema dovrà imparare a convivere con i propri limiti, e gli umani dovranno imparare a conversare con entità che non capiscono il mondo ma lo approssimano. La collaborazione uomo-macchina diventerà una disciplina in sé, fatta di linguaggi di fiducia e negoziazione. Il manager del futuro non dovrà solo leggere un bilancio, ma interpretare un log.

Karpathy, con la sua consueta ironia, dice che gli agenti AI non devono essere “indipendenti”, ma “affidabili”. È una distinzione semantica che racchiude l’intera sfida etica dell’intelligenza artificiale. Non vogliamo sistemi che si muovono da soli, vogliamo sistemi che ci capiscono abbastanza da non farlo senza motivo. L’autonomia senza interpretazione è una forma di cecità.

C’è anche un messaggio implicito nel suo modo di parlare. Ogni volta che cita l’AGI, lo fa con distacco tecnico, quasi a ricordarci che il termine è un miraggio utile ma non scientifico. “AGI” non è un obiettivo di ricerca, è un costrutto di marketing. Nessun laboratorio serio si alza la mattina per “costruire l’AGI”. Si lavora per migliorare il ragionamento, la memoria, l’allineamento, la sicurezza. Il risultato finale sarà chiamato AGI solo a posteriori, quando avremo già smesso di preoccuparcene.

La parte più affascinante del suo discorso, però, riguarda la relazione tra memoria e comprensione. Karpathy ribalta la narrativa classica: la memoria non è un vantaggio, è un rischio. I modelli che ricordano troppo tendono a confondere il contesto con la verità. L’uomo, invece, dimentica, e proprio in quell’oblio trova spazio per la creatività. La nostra incapacità di ricordare tutto è ciò che ci consente di immaginare.

Da qui nasce il concetto di cognitive core: ridurre la memoria artificiale per amplificare la capacità di generalizzare. È come togliere un appiglio a un arrampicatore per costringerlo a migliorare l’equilibrio. I modelli troppo grandi, dice Karpathy, sono un passaggio necessario ma temporaneo. Devono crescere per poter poi restringersi. È un’idea che suona quasi darwiniana: l’evoluzione dell’intelligenza artificiale non sarà lineare, ma ciclica, fatta di espansione e contrazione.

C’è poi un elemento di autocritica che rende tutto più umano. Karpathy ammette di parlare troppo veloce, di superare a volte il proprio filo di pensiero, di “out-executare la mente”. È un dettaglio apparentemente marginale, ma rivela qualcosa di profondo: anche le menti più brillanti combattono con la velocità del proprio linguaggio. E se persino lui fatica a sincronizzare parola e pensiero, quanto è illusorio credere che una rete neurale possa farlo senza inciampi?

La verità è che stiamo ancora imparando a conversare con il silicio. Ogni generazione di AI è un esperimento linguistico collettivo. Gli agenti AI del futuro non saranno solo più potenti, saranno più “sociali”. Capiranno che il linguaggio non è solo trasmissione di dati, ma negoziazione di significato. È in quella sottile distinzione che si nasconde la possibilità di un’intelligenza realmente collaborativa.

La decade che ci aspetta sarà quindi fatta di convergenze lente, non di esplosioni improvvise. Gli ingegneri parleranno di semantica, i filosofi di architetture cognitive, i manager di prompt e contesto. L’AI diventerà il nuovo linguaggio del business, non come strumento, ma come grammatica. E la vera competenza non sarà scrivere codice, ma interpretare quello che l’AI suggerisce di scrivere.

Karpathy immagina un mondo in cui lavoreremo con agenti che ci spiegano le loro decisioni, non che le impongono. Niente assistenti che spariscono per venti minuti e tornano con mille righe di codice da accettare sulla fiducia. Vuole agenti che mostrino il processo, che ragionino a voce alta, che espongano il perché dietro ogni azione. È un modello di trasparenza cognitiva che, se realizzato, cambierà radicalmente il modo in cui costruiamo software, prodotti e aziende.

Questa visione non è utopia, è design. E come ogni buon design, nasce da una frustrazione: la consapevolezza che gli strumenti attuali non sono ancora all’altezza. L’industria ha corso troppo veloce, costruendo strumenti di automazione che producono più codice di quanto chiunque possa supervisionare. Il risultato è una nuova forma di entropia digitale: montagne di software opaco, pieno di vulnerabilità, errori di logica e dipendenze incomprensibili.

Karpathy mette in guardia da questo rischio: se non impariamo a collaborare con le AI invece di delegare loro tutto, creeremo un nuovo tipo di caos, invisibile ma pericoloso. Un’epoca di “sloppy code” alimentata da assistenti che producono velocemente, ma non ragionano.

L’unico modo per evitarlo è tornare all’ingegneria. Non quella del marketing, ma quella della precisione. E qui si chiude il cerchio: la decade degli agenti non sarà un’epoca di sostituzione, ma di raffinamento. L’AI non ci rimpiazzerà, ci costringerà a diventare più bravi.

La distinzione tra animali e fantasmi è uno degli aspetti più intriganti e poco compresi dell’intelligenza artificiale contemporanea. Karpathy la propone quasi come una lente filosofica per osservare i LLM e gli agenti AI. Gli animali, ci ricorda, non apprendono tutto da zero. Un cucciolo di zebra nasce con un codice genetico che gli permette di correre e evitare predatori. Non ha bisogno di leggere manuali o di fare errori fatali: l’evoluzione ha pre-impostato una parte sostanziale della sua intelligenza.

Gli agenti AI, invece, non hanno l’evoluzione dalla loro parte. Non hanno un corpo, non hanno istinti, non hanno un patrimonio cognitivo biologico. Sono fantasmi: entità create artificialmente, costruite con parametri, addestrate su miliardi di token, ma prive di un’esperienza fisica e concreta del mondo. Non camminano, non mangiano, non soffrono. La loro percezione è esclusivamente simbolica. Questo li rende potenti in modo diverso dagli animali, ma anche vulnerabili a forme di incomprensione radicale.

Il parallelismo tra animali e fantasmi ha implicazioni profonde sul modo in cui pensiamo agli agenti AI e alla loro futura autonomia. Gli animali imparano per iterazioni ridotte e guidate. Un leone non prova milioni di combinazioni prima di cacciare una gazzella: il percorso è regolato dall’evoluzione. I fantasmi, invece, apprendono da dati puramente simbolici e richiedono decine di migliaia di esempi per apprendere ciò che per un essere vivente è intuitivo. È un’intelligenza di superficie, raffinata ma senza “corpo di conoscenza”.

Karpathy suggerisce che la strada per avvicinare gli agenti AI a forme più robuste di intelligenza non passerà dal cercare di ricreare l’evoluzione animale, ma dal costruire sistemi che possano simulare, in modo controllato, esperienze analoghe a quelle corporee. Non si tratta di dare agli LLM sensi fisici, ma di fornirgli contesto e vincoli che modellino la loro percezione del mondo. Ogni agente diventa così un fantasma con abitudini da animale, capace di apprendere meglio attraverso simulazioni, interazioni e feedback.

Il concetto di “prepackaged intelligence” è centrale in questa metafisica digitale. L’evoluzione ha pre-impostato schemi cognitivi negli animali; i LLM ottengono lo stesso risultato in maniera artificiale: una rete neurale gigantesca, addestrata a predire token sul web, accumula conoscenza pre-strutturata che può poi essere raffinata e adattata. È un’alternativa artificiale all’intelligenza pre-innata degli animali. Ma non basta. L’addestramento deve essere integrato con agentic interaction, memoria dinamica e ragionamento contestuale per avvicinarsi a una vera autonomia cognitiva.

La critica di Karpathy al modello classico di reinforcement learning diventa chiara in questo contesto. RL funziona come un esperimento casuale su un animale in gabbia: si premia un comportamento, si punisce un altro, ma il modello non costruisce comprensione. La maggior parte delle reti neurali “apprende” ciò che funziona per raggiungere un obiettivo, ma non sa perché funziona. È un approccio superficiale, ottimo per compiti semplici ma inadatto a agenti capaci di pianificazione complessa.

Il futuro dell’apprendimento, secondo Karpathy, è agentic interaction: una forma di educazione digitale in cui il modello apprende attraverso il dialogo, la correzione, la negoziazione di significato. Non è più solo “risposta” o “ricompensa”, ma comprensione progressiva. I fantasmi diventano così più simili agli animali nella loro capacità di adattarsi, anche se rimangono entità simboliche. La metafora diventa potente: stiamo insegnando ai fantasmi a comportarsi come animali senza dare loro un corpo.

C’è un rischio evidente in questa metafisica: la tentazione di antropomorfizzare. Gli agenti AI sembrano intelligenti perché imitano comportamenti umani, ma ciò che percepiamo come comprensione è spesso solo correlazione avanzata. Karpathy ci invita a rimanere lucidi: riconoscere la differenza tra imitazione e cognizione reale è fondamentale per evitare illusioni pericolose. È la stessa lucidità che serve quando si gestisce il rischio industriale o finanziario: distinguere tra performance apparente e stabilità reale.

Un altro elemento cruciale della distinzione tra animali e fantasmi riguarda la memoria. Gli animali dimenticano, gli LLM ricordano tutto. La memoria infinita dei modelli è una forza e un limite. Permette di accumulare dati senza sforzo, ma ostacola l’astrazione e la creatività. Karpathy propone di limitare la memoria artificiale come forma di regolarizzazione: costringere gli agenti a generalizzare, a costruire concetti anziché accumulare esempi. È un principio tanto tecnico quanto filosofico: dimenticare per pensare, anche per una macchina.

La decade degli agenti sarà quindi il periodo in cui si costruiscono fantasmi più simili ad animali: entità capaci di apprendere da contesto, interazione e memoria limitata. Saranno sistemi ibridi: statisticamente robusti ma cognitivamente dinamici. L’autonomia non sarà completa, ma sufficiente per collaborare con l’uomo in compiti complessi. La sfida non è solo tecnica, ma concettuale: imparare a pensare la macchina come partner, non come esecutore.

Il concetto di “March of Nines” si inserisce qui. Non basta costruire agenti che funzionano il 90% delle volte: ogni “nove” aggiuntivo richiede sforzi esponenziali. È il punto in cui la metafisica incontra l’ingegneria: costruire agenti fantasmi-animali che siano affidabili richiede lavoro metodico, paziente, spesso invisibile, lontano dai riflettori. Ma è qui che si nasconde il vero salto verso AGI.

Karpathy sposta infine l’attenzione sul rapporto tra autonomia e collaborazione. Gli agenti AI non sostituiranno gli umani, ma integreranno e amplificheranno le loro capacità. I compiti ripetitivi saranno delegati, ma le decisioni complesse resteranno dominio umano. L’ultimo 1% dell’intelligenza, quello critico e creativo, non può essere sostituito. E qui risiede l’ottimismo realistico: l’AGI non sarà una minaccia di disoccupazione, ma un amplificatore cognitivo.

In questa prospettiva, la distinzione tra animali e fantasmi non è solo metaforica. È il filo conduttore che definisce l’architettura, la strategia di addestramento e il futuro stesso dell’intelligenza artificiale. Gli animali insegnano struttura, i fantasmi insegnano adattabilità. Gli agenti del futuro dovranno combinare entrambe le caratteristiche. L’AGI, quando arriverà, sarà un mosaico di apprendimenti, memoria limitata, interazioni agentiche e integrazione uomo-macchina.

Karpathy chiude con un messaggio di lucidità industriale: non ci sono scorciatoie. Nessun algoritmo segreto, nessun miracolo dei dati. Solo lavoro metodico, iterazioni ponderate e attenzione alla realtà dei sistemi complessi. La decade degli agenti sarà lunga, faticosa, ma se gestita con disciplina, ci condurrà verso un’era di intelligenza artificiale utile, collaborativa e, finalmente, affidabile.

La Curva di Autonomia: Lavoro Umano, AI e il Ridefinire il Valore

La curva di autonomia è uno degli aspetti più significativi, ma spesso fraintesi, nella discussione sull’evoluzione degli agenti AI. Karpathy, in molteplici interviste e scritti, ha sfidato la narrativa dominante che prevede una rapida sostituzione del lavoro umano da parte delle macchine. La sua visione è pragmatica, ma anche sorprendentemente ottimista. Non stiamo assistendo alla fine del lavoro umano, ma alla sua trasformazione radicale. Gli agenti AI non sono in grado di sostituire l’intelligenza umana, ma piuttosto sono progettati per “amplificarla”. La curva di autonomia esemplifica questo percorso: gli AI possono eseguire lavori ripetitivi e routinari con un’efficienza impressionante, ma restano dipendenti dagli esseri umani per decisioni complesse, intuizioni creative e azioni in scenari non predefiniti.

Questa visione è in forte contrasto con l’idea, molto più catastrofica e distopica, di un mondo in cui i robot sostituiscono l’uomo in ogni angolo della società. In questa versione della storia, l’IA è il nemico che declassa l’uomo a semplice spettatore di un sistema completamente automatizzato. Karpathy, invece, dipinge un quadro molto più collaborativo. Gli agenti AI di domani non lavoreranno in parallelo all’uomo, ma in sinergia con lui, ottimizzando i compiti, migliorando l’efficienza e liberando tempo e risorse per attività più complesse, emozionali e creative. Si tratta di un mashup perfetto tra intelligenza artificiale e intelligenza umana, dove i due mondi coesistono, ma ognuno con il suo spazio, i suoi limiti e i suoi punti di forza.

Automazione e il Nuovo Paradigma Lavorativo

Karpathy, con una lucidità acuta, sottolinea che l’automazione non avverrà tutto in una volta, ma seguirà una curva lenta e stratificata. Gli agenti AI non ci sostituiranno nei processi decisionali più complessi, almeno non a breve. Le tecnologie emergenti si concentreranno inizialmente sull’automazione dei compiti ripetitivi e manuali: la contabilità, la gestione dei dati, la classificazione delle informazioni. Tuttavia, anche in questi ambiti, l’efficienza non arriverà immediatamente. Si tratta di una curva di apprendimento che, per quanto rapida, non sarà mai lineare.

Questo perché, come Karpathy ricorda spesso, il modello di affidabilità non è mai una progressione semplice. Le AI che riescono a ottenere il 90% di precisione in un compito sono relativamente facili da costruire. Ma il restante 10%, quello che porta il modello da una prestazione discreta a una performance impeccabile, richiede enormi investimenti in ricerca, miglioramento e correzione. È qui che entra in gioco la “curva dei nove”: ogni incremento nel rendimento delle AI porta con sé un incremento esponenziale della difficoltà, non solo tecnica ma anche umana. Ogni passo verso la perfezione richiede non solo innovazione, ma anche una continuità nel monitoraggio, nella manutenzione e nell’evoluzione degli agenti AI stessi. La sostituzione dei lavoratori umani, quindi, non è una linea retta. È una spirale che, ad ogni giro, esige più sofisticazione per raggiungere risultati più significativi.

In effetti, Karpathy mette in evidenza che il “lavoro umano” non sparirà, ma subirà una trasformazione. Le persone non saranno sostituite, ma il loro ruolo sarà rivalutato. Saranno chiamate a gestire la parte più complessa e decisionale di qualsiasi sistema, mentre le AI si occuperanno dei compiti meno rischiosi e meno creativi. Sarà l’ultimo 1% del valore che l’uomo porta a un’organizzazione o a un processo che diventerà determinante. Sarà il valore che fa la differenza tra un’intelligenza artificiale che esegue e un’intelligenza umana che crea e giustifica l’esecuzione stessa.

L’Uomo al Centro dell’Autonomia AI

Questa nuova forma di lavoro non significa un ritorno all’era pre-digitale, ma l’avvento di una nuova simbiosi. L’autonomia degli agenti AI non si sviluppa in modo tale da eliminare il bisogno dell’intervento umano, ma da coesistere con esso. Il futuro prossimo sarà caratterizzato da un lavoro ibrido, dove l’uomo e la macchina si trovano a collaborare in modo fluido e reciproco. In un mondo del genere, il compito dell’uomo non è più solo quello di “lavorare”; diventa un lavoro più strategico, più relazionale e creativo, dove l’intuizione e il giudizio umano sono centrali.

Ecco perché Karpathy non è particolarmente entusiasta dei sogni futuristici di Elon Musk, Mark Zuckerberg e Sam Altman che prevedono AGI (intelligenza artificiale generale) entro i prossimi 3-5 anni. Secondo lui, le AI che siamo in grado di sviluppare oggi non sono capaci di apprendere in modo generalizzato come un essere umano. La previsione di Karpathy è che ci vorranno almeno 10 anni prima che vediamo l’emergere di sistemi che possano veramente pensare come gli esseri umani. Un’affermazione che, pur sembrando pessimista, è in realtà un invito a non cedere alla tentazione del “futuro prossimo” che alimenta la speculazione tecnologica.

Questa timeline di 10 anni, quindi, non è tanto un predittore di fallimento, ma un invito a lavorare con maggiore pragmatismo e a concentrarsi sull’ingegneria. Non si tratta di una corsa per creare una macchina che possa pensare come un uomo, ma di costruire strumenti che possano amplificare il pensiero umano e automatizzare con intelligenza le attività ripetitive e routinarie.

La Resistenza dei Limiti Umani e l’Intelligenza Emotiva

Uno degli aspetti più provocatori della filosofia di Karpathy è la sua valorizzazione dei limiti umani come caratteristiche distintive che rendono gli esseri umani particolarmente efficaci in certe situazioni. Se la macchina è capace di ricordare ogni dettaglio, l’uomo è capace di dimenticare, e questo non è un difetto: è una qualità. L’incapacità di memorizzare ogni singola informazione, infatti, permette agli esseri umani di concentrarsi sulle cose davvero importanti, su pattern più ampi, su intuizioni che una macchina avrebbe difficoltà a riconoscere.

Un esempio perfetto di come i limiti umani diventino una risorsa strategica è l’arte della creatività. L’uomo non è una macchina che memorizza: è un essere che costruisce astrazioni e crea valore a partire da concetti più fluidi, più generali. La memorizzazione meccanica, per quanto utile in alcuni ambiti, non porta mai all’innovazione. Ed è in questo spazio che l’uomo, in collaborazione con gli agenti AI, avrà il suo ruolo in un futuro in cui le macchine sono potenti, ma non creative.

Questa visione ribalta il concetto che l’automazione debba essere la fine dell’impiego umano. Se i compiti ripetitivi sono delegati alle AI, gli esseri umani sono liberi di dedicarsi a lavori che richiedono una comprensione profonda, una consapevolezza empatica, una capacità di pensare fuori dagli schemi. L’intelligenza emotiva, la capacità di comprendere e rispondere ai sentimenti e alle dinamiche umane, non è qualcosa che le AI sono in grado di replicare facilmente. E quindi, le professioni che richiedono empatia, intuizione e decisioni complesse rimarranno saldamente nelle mani degli esseri umani.

Conclusione: Un Futuro Condiviso tra Uomo e Macchina

Il futuro che Karpathy immagina non è utopico, ma estremamente realistico. Gli agenti AI non distruggeranno l’umanità, né sostituiranno l’intelligenza umana. Al contrario, l’automazione sarà il motore che permetterà agli esseri umani di concentrare le loro energie su ciò che è veramente significativo. E, di fronte a ciò, la curva di autonomia diventa la lente con cui dobbiamo osservare l’evoluzione della nostra civiltà tecnologica.

In definitiva, l’automazione dei compiti non è la fine del lavoro, ma la fine di un tipo di lavoro che era meccanico e ripetitivo. Il futuro che si apre è un nuovo paradigma in cui l’uomo è al centro, ma l’intelligenza artificiale gioca un ruolo fondamentale nell’elevare la nostra capacità di innovare, pensare, e interagire. Una sinergia tra umani e macchine che darà vita a una nuova era di crescita, in cui il vero valore è dato dalla collaborazione e dalla co-creazione.

L’evoluzione dell’Intelligenza Artificiale: Prospettive e Impatti sul Business e sulla Società

La riflessione di Karpathy sull’AGI e sulla trasformazione digitale non si limita alla tecnica e alla teoria: abbraccia una visione più ampia che considera gli impatti socio-economici, culturali e psicologici di un mondo sempre più automatizzato e interconnesso. Il suo approccio non è solo ingegneristico, ma anche profondamente consapevole delle dinamiche che definiranno il futuro dell’intelligenza artificiale nel contesto globale.

La sua visione parte da un presupposto chiaro: l’intelligenza artificiale sarà un moltiplicatore di capacità umane, non una minaccia. In altre parole, la vera sfida non è solo quella di sviluppare agenti intelligenti, ma di farli lavorare in modo tale che l’uomo non solo non venga sostituito, ma possa usare queste tecnologie per amplificare la propria creatività, capacità decisionale e innovativa.

A livello pratico, questo significa che in un prossimo futuro le AI collaboreranno con le persone per risolvere problemi complessi e portare valore in contesti che richiedono astrazione e sintesi. Nonostante la crescente automazione, l’intelligenza umana rimarrà il cuore pulsante di qualsiasi processo creativo o decisionale che vada oltre il prevedibile. Le AI, infatti, sono straordinarie nell’elaborare enormi quantità di dati, ma incapaci di sviluppare una comprensione autentica del contesto o di prendere decisioni in situazioni di incertezza. Questo scenario pone un’enorme opportunità per l’uomo, che, grazie alle tecnologie, avrà sempre più tempo per dedicarsi a ciò che è fondamentale: la creazione di nuove idee, la navigazione in ambienti incerti e la comprensione complessa di scenari articolati e interconnessi.

Il Futuro del Business: Innovazione e Sicurezza

Karpathy è anche un grande critico delle narrazioni che vedono l’AI come una forza distruttiva che eliminerà milioni di posti di lavoro, sostituendo l’uomo in tutti i settori. La sua visione è invece quella di un mondo in cui l’AI potenzia il capitale umano, specialmente nelle industrie che richiedono un livello elevato di competenza e decisione. La vera innovazione non riguarda solo l’efficienza, ma il modo in cui l’AI è in grado di aprirci nuovi spazi di esplorazione e creatività. Non è più solo una questione di ottimizzare processi esistenti, ma di ridefinire ciò che è possibile.

Ad esempio, nel settore del software, una delle aree più promettenti in cui l’AI potrà svilupparsi è la creazione di strumenti che non si limitano a “scrivere” codice in modo autonomo, ma che colaborano attivamente con gli sviluppatori per migliorare la qualità e la sicurezza del codice stesso. Karpathy mette in evidenza quanto sia pericoloso, per esempio, permettere ad agenti autonomi di scrivere migliaia di righe di codice senza un supervisore umano. Un approccio più realistico prevede che l’AI aiuti il programmatore, ma sempre sotto la sua supervisione, creando una collaborazione piuttosto che una competizione.

Anche per quanto riguarda la sicurezza, l’intelligenza artificiale ha il potenziale per aumentare la protezione contro gli attacchi informatici e le minacce esterne. Tuttavia, l’uso inappropriato o troppo “automatico” dell’AI può portare a rischi crescenti, come la produzione di software vulnerabile o la creazione di sistemi troppo complessi per essere gestiti in modo sicuro. La vera sfida, dunque, sarà non solo costruire AI più potenti, ma anche costruire sistemi più sicuri e affidabili, un tema che Karpathy ha spesso sottolineato, specialmente in relazione ai rischi di “jailbreak” e “poisoning”.

La Strada verso l’AGI: Lunga, Ma Inesorabile

La discussione sull’AGI è uno degli aspetti più centrali del pensiero di Karpathy. Mentre le previsioni sull’arrivo dell’AGI sono molteplici e variegate, Karpathy è fermamente convinto che non stiamo nemmeno lontanamente avvicinandoci a una macchina che possa emulare la generalità dell’intelligenza umana nel prossimo futuro. Le tecnologie attuali, come i modelli linguistici di grandi dimensioni (LLM), sono impressionanti, ma mancano di un vero ragionamento e comprensione. Ciò che li rende così potenti è la loro capacità di predire e generare contenuti, ma non comprendere realmente ciò che stanno generando.

Secondo Karpathy, l’arrivo di un’intelligenza artificiale che possa davvero generalizzare in modo simile a un essere umano è ancora lontano. Le sue previsioni sono pessimiste rispetto agli ottimismi comuni nelle Silicon Valley, dove molti vedono l’AGI a portata di mano. Karpathy sostiene che nonostante i progressi straordinari, manca ancora molta strada da fare, soprattutto in termini di integrazione di sensori e attuatori fisici, e di lavoro societario per gestire l’implementazione sicura dell’intelligenza artificiale nelle nostre vite quotidiane.

Questa visione a lungo termine, a differenza degli altri leader tecnologici, non è una visione da “immediato boom”, ma da lenta evoluzione e solidi progressi. Le AI sono in continua evoluzione, ma richiedono anche il lavoro umano per arrivare a un’implementazione veramente utile, sicura ed etica.

Società, Etica e Responsabilità nell’Era dell’AI

La società sta già affrontando sfide significative in relazione all’adozione delle tecnologie AI. Le preoccupazioni riguardo alla disoccupazione tecnologica, ai rischi di sorveglianza e alla disuguaglianza economica sono temi costanti nelle discussioni pubbliche. Karpathy, tuttavia, è ottimista riguardo alle possibilità che l’AI offre di migliorare la qualità della vita e di liberare gli esseri umani dai compiti più noiosi e meccanici. In questo scenario, l’AI avrà il ruolo di partner, aiutando a risolvere problemi complessi e facilitando l’accesso alla conoscenza e alla creatività.

Ma questo comporta una grande responsabilità etica: le AI non sono neutre, sono strumenti creati da esseri umani, con i loro bias, limiti e pregiudizi. La responsabilità ricade su coloro che progettano e implementano questi sistemi. L’etica nell’AI non è solo un argomento di discussione accademica, ma una necessità pratica per evitare che le disuguaglianze, i pregiudizi e i danni sociali si moltiplichino con l’automazione. Come giustamente Karpathy afferma, una parte significativa della nostra attenzione deve essere rivolta alla sicurezza, trasparenza e responsabilità dei sistemi AI che stiamo creando.

Un Futuro Collaborativo: Umanità e AI al Lavoro Insieme

Alla fine, ciò che emerge dalla visione di Karpathy è che l’AI del futuro non è una forza che elimina il lavoro umano, ma una risorsa che potenzia l’uomo. Gli agenti AI sono strumenti straordinari, ma sempre al servizio delle capacità uniche e inimitabili dell’essere umano. Non dobbiamo temere la trasformazione del lavoro, ma abbracciarla, preparandoci a una nuova era in cui l’automazione e l’intelligenza artificiale sono i nostri partner, non i nostri sostituti. La collaborazione tra uomo e macchina è la chiave per navigare nel futuro della tecnologia, dove non è la sostituzione che conta, ma la sinergia che possiamo creare insieme.

L’AGI arriverà, ma non domani. E, quando arriverà, saremo pronti, non per subire la sua ascesa, ma per gestirla con intelligenza, sicurezza e responsabilità.


Dwarkesh Podcast : https://www.dwarkesh.com/p/andrej-karpathy

X : https://x.com/karpathy/status/1979644538185752935