Measuring the Impact of Early-2025 AI on Experienced Open-Source Developer Productivity

Hmmm, sì, la grande illusione collettiva dell’intelligenza artificiale generativa sta cominciando a mostrare le crepe, e non è una bella scena. La narrazione scintillante che ci è stata servita a colpi di conferenze e report patinati sta franando sotto il peso di una realtà imbarazzante. Gli stessi programmatori che, con l’aria di sacerdoti del nuovo culto, giuravano di essere diventati dei semidei grazie agli strumenti AI, hanno appena ricevuto un sonoro schiaffo. METR, un laboratorio di ricerca poco incline alla retorica da keynote, ha pubblicato un trial randomizzato che ha fatto saltare le maschere: gli sviluppatori erano convinti di essere il 20 per cento più veloci usando AI, ma in realtà erano il 19 per cento più lenti. Non stiamo parlando di dilettanti allo sbaraglio, ma di professionisti esperti. La cosa più inquietante? Continuavano a giurare che stavano volando, quando in realtà arrancavano nel fango digitale. Autoconvincimento puro, un’ipnosi collettiva degna di un illusionista da palcoscenico.

Chiunque si occupi seriamente di tecnologia sa che l’autosuggestione è un’arma potente. Ma qui siamo oltre, siamo nel territorio del delirio. È come se la comunità tech fosse entrata in una trance autoindotta in cui il mantra è “AI = produttività, AI = crescita”. E guai a chi osa dire che il re è nudo. È più facile insultare l’eretico che ammettere di essere stati presi in giro. La cosa buffa, se vogliamo riderci su, è che i numeri ci sono sempre stati davanti agli occhi, ma si è preferito guardare altrove, probabilmente perché nessuno vuole rinunciare a raccontare di essere al centro di una rivoluzione. Il bisogno psicologico di sentirsi parte di un’epoca straordinaria è talmente forte che l’evidenza contraria diventa invisibile.

Un altro schiaffo arriva da IBM, che ha avuto l’ardire di fare una domanda banale a 2000 CEO: i vostri progetti di intelligenza artificiale generativa funzionano davvero? Risultato: tre su quattro hanno fallito nel generare un ritorno economico. Non parliamo di piccole startup confuse, ma di grandi aziende, quelle che nei report dei soliti consulenti globali vengono sempre dipinte come “visionarie e data-driven”. Tre su quattro è un tasso di fallimento degno delle peggiori scommesse speculative degli anni 90, eppure non sembra scuotere più di tanto l’industria della consulenza che continua a vendere slide con grafici a freccia ascendente. È quasi comico. O forse tragico, dipende dai soldi che ci hai buttato dentro.

E no, non è colpa della tecnologia “immatura” come cercano di giustificarsi i difensori a oltranza. Carnegie Mellon e Salesforce hanno messo il dito nella piaga: gli agenti AI falliscono nel completare i compiti con successo il 65-70 per cento delle volte. Non è una differenza di dettagli, è un disastro sistemico. Gartner, per una volta onesta, ha dichiarato che i modelli attuali non hanno né la maturità né l’autonomia per raggiungere obiettivi complessi nel tempo. Tradotto: l’autonomia adattiva è zero, eppure qualcuno continua a raccontare di futuri dominati da maggiordomi digitali che gestiranno le aziende al posto nostro.

Il problema è che l’intelligenza artificiale generativa è stata presentata come una macchina magica per tagliare costi e aumentare la produttività, ma la verità è molto più sporca. Le aziende la stanno usando, sì, ma soprattutto come scusa per licenziare persone. Dietro l’etichetta cool di “trasformazione digitale” si nasconde una logica molto semplice: ridurre i costi e far digerire alla stampa finanziaria misure impopolari. Nessuno lo ammette, naturalmente, perché suona brutale. Ma la realtà è che questa corsa all’AI è spesso solo l’ennesima ondata di ristrutturazioni camuffate da innovazione.

Eppure, e qui arriva la parte più interessante, l’autosuggestione rimane il motore di tutto. Le persone vogliono credere che funzioni. È un meccanismo psicologico quasi infantile, una specie di magia bianca che ci raccontiamo per giustificare scelte già prese. “Se sto licenziando metà del reparto customer care è perché l’AI risolverà tutto”, si ripetono i manager. Oppure, nel caso dei programmatori, “sto diventando più produttivo perché ho un copilota intelligente”, anche quando il log dei tempi di consegna dice il contrario. È come il pubblico di un mago che finge di non vedere il trucco perché altrimenti lo spettacolo perderebbe fascino.

Dal 2022, da quando ChatGPT è stato lanciato al grande pubblico, il mondo economico si è aggrappato all’idea di una crescita esplosiva trainata dall’intelligenza artificiale generativa. I policy maker l’hanno adottata come nuovo mantra, le banche centrali hanno cominciato a inserire la “produttività AI” nei loro scenari previsionali, e persino qualche accademico ha iniziato a parlare di boom del PIL spinto dalle macchine pensanti. Il paradosso è che più le evidenze si accumulano nel senso opposto, più cresce la retorica da evangelisti. È come se la dissonanza cognitiva avesse trovato il suo habitat perfetto in questa bolla di aspettative.

C’è un aspetto affascinante, quasi antropologico, in tutto questo: l’intelligenza artificiale generativa non è solo una tecnologia, è uno specchio che riflette i nostri desideri più profondi di controllo e di potere. Vogliamo credere che una macchina possa toglierci il peso delle decisioni difficili, che possa essere più razionale, più veloce, più efficiente di noi. Ma la realtà, almeno per ora, è che queste macchine non fanno altro che amplificare le nostre stesse illusioni. L’illusione di essere più intelligenti, l’illusione di essere più produttivi, l’illusione di avere trovato finalmente la scorciatoia per battere la complessità del mondo reale.

Chi lavora seriamente con questi modelli sa che non sono né stupidi né intelligenti, sono strumenti probabilistici che sputano fuori pattern. Ma la retorica da conferenza continua a venderli come partner creativi, quasi coscienti, capaci di comprendere “il contesto” e di risolvere problemi in autonomia. Eppure basta un prompt ambiguo per far crollare tutta questa narrazione come un castello di carte. Il problema non è l’AI in sé, ma la nostra fame di credere alle favole, anche quando i numeri gridano il contrario.

Ironico, vero? Spendiamo miliardi per creare una tecnologia che dovrebbe liberarci dagli errori umani, e poi ci cadiamo dentro con entrambi i piedi. Siamo pronti a perdonare i fallimenti dell’intelligenza artificiale generativa come fossero peccati veniali, perché il sogno che ci vende è troppo seducente per essere abbandonato. Non è solo un problema tecnico, è un problema culturale. E finché continueremo a mentire a noi stessi, i report come quello di METR continueranno a sembrare anomalie, quando in realtà sono solo la fotografia più onesta di quello che sta davvero succedendo.

Quindi sì, forse il segreto dell’AI non è nella sua presunta intelligenza, ma nella nostra capacità di autoinganno. Un gigantesco gioco di prestigio in cui preferiamo applaudire l’illusione piuttosto che guardare sotto il tavolo.