I modelli sono diventati mostruosamente potenti, quasi imbarazzanti per quello che sanno fare, eppure il valore che la maggior parte delle aziende riesce a estrarne resta sorprendentemente modesto. È come possedere una centrale nucleare e usarla per alimentare una torcia. Sarah Friar, CFO di OpenAI, lo ha chiamato senza troppi giri di parole capability overhang dell’AI, un’espressione che suona tecnica ma che descrive una situazione molto concreta e per certi versi imbarazzante per chi guida organizzazioni complesse.
L’idea è semplice e proprio per questo disturbante. Esiste uno scarto crescente tra ciò che i sistemi di intelligenza artificiale sono già in grado di fare oggi e il modo in cui vengono effettivamente utilizzati nelle imprese, nelle istituzioni e perfino negli Stati. Non è una questione di fiducia ideologica o di paura irrazionale. La fase del dibattito filosofico sul se l’AI sia utile o meno è finita. A Davos, nei board e nei comitati strategici, nessuno mette più in discussione che l’intelligenza artificiale sia diventata infrastruttura economica di base, al pari dell’elettricità o di Internet. Il problema è un altro ed è molto più terreno. Riguarda l’esecuzione, i dati, i processi e soprattutto il modo in cui le organizzazioni prendono decisioni.
Il capability overhang dell’AI nasce dal fatto che la maggior parte delle aziende continua a trattare l’intelligenza artificiale come uno strumento di produttività individuale o come un progetto pilota elegante da mostrare nelle presentazioni. Chatbot per rispondere alle email, assistenti per scrivere codice più velocemente, qualche dashboard predittiva a supporto del marketing. Tutto utile, per carità, ma lontanissimo dal potenziale reale dei modelli attuali. Le capacità avanzate, quelle che permetterebbero di ripensare interi flussi decisionali, catene del valore e architetture organizzative, restano ai margini, non integrate nei processi core, non incorporate nella governance, non considerate parte strutturale della strategia.
Qui sta il punto che molti preferiscono ignorare. L’AI non crea vero valore quando fa risparmiare qualche ora a un knowledge worker già saturo di riunioni. Lo crea quando diventa un layer decisionale permanente, quando entra nei processi di pianificazione, di allocazione del capitale, di gestione del rischio, di ricerca e sviluppo. E questo richiede qualcosa che le organizzazioni odiano più di ogni altra cosa: cambiare se stesse. Cambiare i dati, che spesso sono sporchi, frammentati, politicamente contesi. Cambiare i sistemi legacy, che tengono in ostaggio interi dipartimenti. Cambiare le responsabilità decisionali, perché se un modello suggerisce una scelta migliore, qualcuno deve avere il coraggio di seguirla.
I dati raccontano una storia interessante e per certi versi controintuitiva. Le ricerche più recenti di OpenAI mostrano che all’interno delle stesse organizzazioni esistono utenti “di frontiera” che utilizzano fino a sette volte più capacità di intelligenza artificiale rispetto alla media. Non stiamo parlando di qualche prompt più sofisticato, ma di un uso profondo e sistematico dei modelli per scrivere codice complesso, condurre ricerche avanzate, simulare scenari, supportare decisioni strategiche. Questi utenti non sono necessariamente più intelligenti o più pagati. Sono semplicemente messi nelle condizioni di spingere l’AI oltre l’uso superficiale.
Ancora più interessante è il quadro a livello globale. L’adozione avanzata dell’AI non segue una linea retta con il reddito pro capite. Paesi come Pakistan e Vietnam emergono come utilizzatori intensivi di strumenti agentici e di modelli avanzati, spesso per necessità più che per moda. Dove il capitale umano è scarso o le infrastrutture tradizionali sono deboli, l’intelligenza artificiale viene spinta a fare di più, più in fretta, su problemi reali. È una lezione che l’Occidente, distratto da dibattiti regolatori e da infinite proof of concept, farebbe bene a studiare con attenzione.
Il vantaggio competitivo, in questa fase, non deriva dall’accesso alla tecnologia. I modelli sono sempre più commoditizzati e disponibili. Deriva dalla capacità di usarli per risolvere problemi difficili prima degli altri. Le organizzazioni che stanno catturando valore reale sono quelle che usano l’AI per comprimere il tempo necessario a prendere decisioni complesse, per esplorare più scenari, per innovare più velocemente. Questo genera produttività, certo, ma anche qualcosa di più sottile e potente. Genera apprendimento organizzativo accelerato. E quello, storicamente, è il vero moltiplicatore di ricchezza.
Quando Sarah Friar dice che il vincolo non è la convinzione ma l’esecuzione, centra il cuore del problema. I CFO e i CEO sanno che l’AI è inevitabile. Ma sanno anche che implementarla seriamente significa affrontare domande scomode sul ritorno dell’investimento, sulla qualità dei dati, sulla semplicità dei sistemi. Significa accettare che molte architetture IT sono state costruite per un mondo che non esiste più. Significa, soprattutto, gestire un cambiamento organizzativo profondo, che non può essere delegato a un team di innovazione o a un fornitore esterno.
OpenAI stessa è un caso di studio interessante, non tanto per la tecnologia, quanto per la scala. Passare da due miliardi di dollari di ricavi nel 2023 a oltre venti miliardi nel 2025 non è solo una storia di hype. È la dimostrazione che quando l’infrastruttura cresce insieme ai casi d’uso concreti, il valore segue. L’azienda ha investito massicciamente in capacità computazionale, ma ha anche iniziato a costruire prodotti verticali, come ChatGPT Health, che risolvono problemi specifici in domini complessi. Non è un dettaglio. È il segnale che l’era delle demo generaliste sta lasciando spazio a quella dell’integrazione profonda.
Anche il tema dell’IPO, spesso trattato come gossip finanziario, va letto in questa chiave. Non è una questione di se, ma di quando, e soprattutto di maturità del modello di business. Portare in borsa un’infrastruttura di questo tipo significa dimostrare che il valore non è solo tecnologico, ma sistemico e replicabile. È la stessa sfida che affrontano oggi le imprese che vogliono trasformare l’AI da costo sperimentale a leva strutturale.
Il capability overhang dell’AI è quindi meno una questione tecnologica e più una radiografia impietosa delle organizzazioni. Mostra chi è in grado di ripensare se stesso e chi preferisce verniciare il vecchio modello con una patina di intelligenza artificiale. La prossima fase della competizione non sarà vinta da chi ha il modello più grande o il dataset più rumoroso. Sarà vinta da chi ridisegna workflow, pipeline di dati e strutture decisionali attorno all’AI, accettando il rischio e il disordine iniziale che ogni vera trasformazione comporta.
Chi resta indietro non lo farà per mancanza di accesso alla tecnologia, ma per inerzia organizzativa. E quella, come insegna la storia industriale, è la forma più costosa di miopia strategica. In un mondo in cui l’intelligenza artificiale è già più avanti delle nostre aziende, il vero gap da colmare non è di capacità, ma di coraggio manageriale.