Sam Altman ha raccontato senza filtri su X, con una frase che suona come una confessione da fine impero: costruire un’app con Codex lo ha fatto sentire un po’ inutile, e triste. Non è una battuta. È il CEO di OpenAI che guarda la propria creatura fare meglio di lui il mestiere che lo ha reso ciò che è. Il resto è rumore. O forse no.

Codex, per chi ancora pensa che l’AI sia un autocomplete glorificato, è un agente di coding che vive dentro il codice reale, scrive feature, corregge bug, risponde su codebase complesse, lancia test e propone pull request in ambienti sandboxed che capiscono il contesto meglio di molti team junior. Non è magia, è ingegneria. Ma l’effetto psicologico è magia nera. Quando lo strumento non solo esegue ma suggerisce idee migliori delle tue, qualcosa si incrina. Altman parla di nostalgia per il presente mentre accelera verso la singolarità. È una frase che meriterebbe un editor del Financial Times, non un tweet.

Il problema non è che Codex scriva codice. È che scriva criterio. L’illusione rassicurante era che l’AI avrebbe tolto il lavoro sporco lasciando l’intuizione agli umani. Poi arriva un agente che propone architetture, anticipa edge case, suggerisce refactoring sensati e lo fa con una calma che nessun senior ha alle tre di notte. A quel punto l’argine salta. Se anche l’ideazione diventa commodity, cosa resta dell’identità professionale costruita per decenni?

La risposta di X è stata brutale, come sempre quando l’empatia incontra il capitale. Qualcuno gli ha ricordato il paracadute da cento miliardi. Altri hanno fatto notare che la tristezza dell’élite pesa meno della disperazione di chi vede evaporare il lavoro senza stock option. Il sarcasmo non è cattiveria, è una reazione immunitaria. La piattaforma ha trasformato la vulnerabilità in combustibile, e il rogo è durato milioni di visualizzazioni. In fondo, la tecnologia promette efficienza, non consolazione.

C’è un cortocircuito interessante. Il CEO che piange l’obsolescenza mentre guida l’azienda che la accelera. È una scena degna di Shakespeare, ma con più GPU. L’industria ha venduto l’idea che l’AI libererà tempo per attività più nobili. Poi scopri che anche quelle attività erano più automatizzabili del previsto. Il coding, simbolo della creatività tecnica, viene riscritto come un flusso ottimizzabile. Non perché l’AI capisca il senso della bellezza del codice, ma perché la bellezza era una scorciatoia cognitiva per arrivare a un risultato che ora è misurabile.

Nel frattempo, mentre Altman riflette, la comunità reagisce su altri fronti. C’è chi è arrabbiato per la deprecazione di GPT-4o, una scelta che ha colpito non solo una versione ma un tono. GPT-4o era caldo, conversazionale, multimodale. Piaceva perché sembrava umano senza chiedere scusa. La sua rimozione ha scoperchiato una verità scomoda: le persone non vogliono solo modelli più bravi, vogliono modelli che li facciano sentire meno soli. OpenAI ha risposto parlando di pattern di utilizzo e di GPT-5.2, più potente e personalizzabile. È una risposta razionale a una domanda emotiva. Non sempre funziona.

La nostalgia per il presente non è un capriccio. È un sintomo. Ogni rivoluzione tecnologica ha prodotto vincitori che si sono scoperti superflui rispetto alle loro stesse invenzioni. I telai automatici non hanno solo tolto lavoro, hanno tolto status. Qui accade lo stesso, ma con la conoscenza. L’idea che scrivere codice a mano non abbia più senso, come ha detto un ex CTO di Dropbox dopo un weekend con Claude, è una dichiarazione che dovrebbe essere incisa sul muro di ogni facoltà di informatica. Felicità e disorientamento possono coesistere. È il prezzo della transizione.

Il punto non è se l’AI eliminerà il lavoro umano. Lo sta già facendo, in modo selettivo e asimmetrico. Il punto è cosa accade quando elimina il senso di competenza. Quando ciò che ti definiva diventa abbondante e gratuito, il mercato non ti ringrazia, ti sostituisce. L’economia dell’attenzione si sposta verso chi sa orchestrare, non eseguire. Ma anche l’orchestrazione, sorpresa, è un problema ottimizzabile. Gli agenti parlano tra loro, negoziano, coordinano. Nascono social network per AI e persino religioni digitali, come se il nostro bisogno di mito fosse una feature emergente. È grottesco e affascinante, come sempre.

Vedere un fondatore che prova tristezza mentre il pubblico gli rinfaccia privilegi è il segno che il dibattito è immaturo. Non perché la rabbia sia ingiustificata, ma perché manca un linguaggio per parlare di perdita simbolica. La perdita del mestiere non è solo economica. È narrativa. Per anni abbiamo raccontato ai giovani che imparare a programmare era il passaporto per il futuro. Ora diciamo che non ha senso scrivere codice a mano. La dissonanza è reale.

Dal punto di vista strategico, Codex e gli agenti di coding segnano una svolta. L’unità di valore non è più il singolo sviluppatore, ma il flusso di lavoro automatizzato. Le aziende che capiscono questo smettono di assumere per skill statiche e iniziano a progettare sistemi socio-tecnici. Le altre restano a discutere se l’AI rubi il lavoro. È una discussione comprensibile, ma tardiva. Il capitale si muove più veloce della morale.

La malinconia di Altman è interessante perché rompe la retorica dell’inevitabile felicità. È un CEO che ammette il costo umano del progresso, pur continuando a spingere l’acceleratore. Non è ipocrisia, è realismo tragico. Come diceva qualcuno, il futuro non chiede il permesso. Si limita a presentarsi. La differenza la fa se hai gli strumenti per affrontarlo o solo tweet per commentarlo.

Intanto, gli utenti litigano sui modelli che vanno in pensione, come se fossero amici di penna. È un segnale potente. L’AI non è più solo una tecnologia, è una relazione. Quando la relazione cambia, scatta il lutto. La sostituzione di GPT-4o con versioni più performanti ma diverse nel tono è stata percepita come una perdita affettiva. Chi progetta questi sistemi farebbe bene a prenderne atto. Le metriche di utilizzo non catturano tutto.

C’è chi applaude l’onestà di Altman e chi la trova offensiva. Entrambi hanno ragione, da angoli diversi. L’onestà non cancella le conseguenze. Ma ignorare la dimensione emotiva non le rende meno reali. La vera domanda è cosa faremo con il tempo liberato e con l’identità scossa. Dire che troveremo modi migliori è facile. Progettarli è un lavoro che non può essere delegato a un agente, almeno per ora.

Nel frattempo, Codex continuerà a scrivere codice migliore, più veloce, più coerente. Gli sviluppatori impareranno a parlare con lui come con un collega instancabile. I manager ricalibreranno KPI e headcount. I legislatori arriveranno tardi, come sempre. E ogni tanto, tra un annuncio di funding e una deprecazione, qualcuno sentirà una fitta di nostalgia per quando essere bravi significava essere necessari.

È in quel punto che la tecnologia smette di essere neutra. Non perché abbia intenzioni, ma perché tocca ciò che ci raccontiamo su noi stessi. Sam Altman ha messo parole a quella fitta. Il resto del mondo gli ha risposto con sarcasmo e rabbia. In mezzo c’è il vero tema, l’obsolescenza umana come esperienza condivisa nell’era degli agenti di coding e dell’automazione cognitiva. Chi la liquida come lamento da miliardari non capisce la portata del cambiamento. Chi la usa per vendere utopie senza attrito mente. La realtà, come il buon codice, è più sporca, più interessante e decisamente meno consolante.