La narrativa dominante sull’intelligenza artificiale è costruita su una premessa seducente: crescita esponenziale, margini software e scalabilità infinita. Poi arrivano i numeri. Freddi, spietati, ineleganti. Quando il costo di esecuzione dei modelli quadruplica in un solo anno e il margine lordo scende al 33%, la magia retorica incontra la fisica dell’infrastruttura. E la fisica, storicamente, vince sempre.
OpenAI, organizzazione che molti investitori trattano come un inevitabile juggernaut tecnologico, ha riportato ricavi superiori alle attese, circa 13,1 miliardi di dollari, ma con una dinamica dei costi che merita un’analisi più chirurgica. Se fosse una società quotata, un margine lordo significativamente inferiore alle previsioni avrebbe probabilmente generato una reazione di mercato brutale. Non per cinismo. Per matematica.
Il punto strutturale non è la crescita dei ricavi. È la natura dei costi. L’intelligenza artificiale avanzata non è solo software. È energia, GPU, data center, reti, raffreddamento, orchestrazione distribuita. In altre parole, è infrastruttura mascherata da software. E l’infrastruttura, a differenza del SaaS puro, ha economie di scala più lente e capex enormi.
Osserviamo il cuore della questione: l’inferenza. Addestrare modelli è costoso, ma eseguirli su scala globale lo è ancora di più. Ogni prompt, ogni risposta, ogni API call consuma potenza computazionale. E mentre l’adozione cresce, il costo operativo cresce con essa. Una dinamica controintuitiva per chi è cresciuto nell’era del software marginale quasi zero.
Secondo le proiezioni riportate, il momento di svolta finanziaria dovrebbe arrivare intorno al 2030, con un incremento dei ricavi di circa 100 miliardi e un passaggio del free cash flow da negativo a positivo di circa 90 miliardi. Una trasformazione quasi epica. Ma la vera domanda strategica è un’altra: da dove arriverà l’espansione dei margini?
La risposta implicita è nella riduzione dei costi di training, stimata in decine di miliardi, tale da compensare l’aumento continuo del costo di inferenza. Un’ipotesi elegante. Forse anche troppo elegante. Come ha osservato con taglio caustico lo short seller Jim Chanos, le previsioni quinquennali sull’AI somigliano spesso più a scenari narrativi che a modelli finanziari verificabili.
Qui emerge una frattura concettuale che molti analisti sottovalutano. L’AI generativa non segue esattamente la curva economica del cloud né quella del software tradizionale. È una terza categoria. Un ibrido in cui il costo marginale non tende a zero, ma viene continuamente riassorbito dall’aumento della complessità dei modelli e delle aspettative degli utenti.
Nel frattempo, il mercato osserva con attenzione la settimana delle trimestrali, dove attori chiave come Nvidia, Salesforce, Snowflake e Zoom pubblicano i risultati nello stesso giorno. Un allineamento quasi teatrale, come se l’intero ecosistema AI dovesse presentarsi contemporaneamente davanti al tribunale del mercato.
Le aspettative su Nvidia sono particolarmente emblematiche. Una crescita dei ricavi prevista superiore al 60% per una società già gigantesca non spaventa più gli investitori. Li abitua. E questa abitudine è forse il vero rischio sistemico. Quando la crescita iperaccelerata diventa baseline psicologica, qualsiasi rallentamento viene interpretato come crisi, anche quando resta storicamente straordinario.
Parallelamente, si diffonde una narrativa inquietante: l’AI starebbe distruggendo il software tradizionale. I titoli software hanno subito correzioni tra il 20% e il 30%, alimentate dal timore che modelli generativi sostituiscano applicazioni enterprise consolidate. Una tesi suggestiva. Ma profondamente semplificata.
Le grandi aziende non cambiano stack tecnologico con la stessa velocità con cui cambiano hype. I sistemi enterprise sono intrecciati con processi, compliance, sicurezza e integrazioni legacy. Sostituire una piattaforma come Workday o Salesforce non è una decisione tecnologica. È una decisione organizzativa e politica interna.
Il software, inoltre, rappresenta spesso una percentuale minima dei costi operativi di una grande impresa. Ridurre il costo del software del 20% ha un impatto marginale rispetto al rischio di discontinuità operativa. Ed è per questo che molte aziende guardano con sospetto le cosiddette soluzioni “vibe coded”, affascinanti sul piano narrativo ma immature su quello industriale.
Intanto, i player storici stanno facendo ciò che i mercati tendono a sottovalutare: incorporare l’intelligenza artificiale nei prodotti esistenti. Non sostituzione. Integrazione. Salesforce, ad esempio, ha già iniziato a quantificare il run rate dei ricavi legati ai suoi prodotti AI, con Agentforce che ha superato il mezzo miliardo. Una cifra modesta rispetto al fatturato complessivo, ma strategicamente significativa.
Snowflake, con un run rate AI intorno ai 100 milioni, dimostra un altro punto cruciale: l’AI oggi è ancora una componente incrementale, non il core revenue driver per molte software company. La transizione sarà graduale, non rivoluzionaria, nonostante la retorica dominante parli di disruption istantanea.
Zoom rappresenta un caso quasi sociologico. Dopo l’esplosione pandemica, la crescita si è stabilizzata intorno al 3-4% annuo. Eppure l’azienda continua a posizionarsi come piattaforma AI-first, senza fornire ancora metriche finanziarie dettagliate sull’impatto dell’AI. Una strategia comunicativa comprensibile: nel mercato attuale, dichiararsi AI-first è quasi una necessità semantica prima ancora che tecnologica.
Tornando all’economia dell’AI, il nodo centrale resta energetico e computazionale. Ogni miglioramento dei modelli richiede più parametri, più dati, più potenza di calcolo. L’efficienza algoritmica migliora, certo, ma la domanda cresce più velocemente dell’efficienza. È il paradosso di Jevons applicato all’intelligenza artificiale: più diventa efficiente, più viene utilizzata, aumentando il consumo complessivo di risorse.
Gli investitori, tuttavia, stanno scommettendo su una compressione futura dei costi, trainata da chip più efficienti, architetture ottimizzate e modelli meno dipendenti dal retraining massivo. Una scommessa tecnologicamente plausibile, ma finanziariamente delicata. Basta un rallentamento nell’innovazione hardware o un aumento dei costi energetici per alterare drasticamente le proiezioni di marginalità.
Una citazione attribuita a un noto venture capitalist della Silicon Valley recita: “L’AI è software che si comporta come hardware”. Una provocazione, ma anche una sintesi perfetta. Il valore percepito è software. Il costo reale è infrastrutturale.
Nel lungo periodo, la sostenibilità economica dell’AI dipenderà da tre leve invisibili al grande pubblico: ottimizzazione dell’inferenza, verticalizzazione delle applicazioni e pricing enterprise. Non è un caso che molte aziende AI stiano spingendo verso contratti enterprise ad alto margine invece che verso modelli puramente consumer.
La vera domanda, quindi, non è se i ricavi cresceranno. Cresceranno quasi inevitabilmente. La domanda strategica è se la marginalità dei modelli generativi riuscirà a convergere verso logiche software o resterà ancorata a logiche infrastrutturali. Due mondi finanziari completamente diversi.
Il mercato, per ora, sembra scegliere la fede. Ma la storia tecnologica insegna una lezione ricorrente: ogni rivoluzione passa da una fase di euforia narrativa seguita da una fase di razionalizzazione economica. L’intelligenza artificiale non farà eccezione. E quando l’hype incontra il conto energetico, la magia smette di essere un modello di business e torna ad essere, semplicemente, una metafora.