Wall Street ha la memoria corta ma l’ansia lunga. Martedì gli investitori hanno tirato un piccolo sospiro di sollievo quando Oracle ha pubblicato risultati leggermente migliori delle aspettative per il trimestre chiuso a febbraio. Il titolo, che negli ultimi sei mesi era stato brutalmente dimezzato, è rimbalzato di circa il nove per cento nelle contrattazioni after-hours. In superficie la narrativa appare rassicurante: ricavi un po’ sopra le stime e, soprattutto, una revisione al rialzo delle previsioni di crescita. La società ora prevede che nel 2027 fiscale i ricavi cresceranno del 34 per cento, un ritmo che supera di oltre il doppio la crescita prevista per l’anno in corso e che è quattro volte superiore alla media registrata dal 2021. Numeri che, presi isolatamente, raccontano una storia di espansione quasi epica.

Sotto la superficie, tuttavia, si intravede qualcosa di più interessante, e decisamente meno romantico. L’economia dell’intelligenza artificiale non è solo un problema di algoritmi o di modelli linguistici sempre più sofisticati. È soprattutto una questione di infrastrutture, energia e capitale. Il capitalismo delle GPU, come qualcuno ha iniziato a chiamarlo nei corridoi di Silicon Valley, assomiglia sorprendentemente alle grandi espansioni ferroviarie del XIX secolo: enorme spesa iniziale, promesse di traffico futuro e una certa dose di fede nel fatto che qualcuno, da qualche parte, pagherà il conto.

Nel caso di Oracle il nervosismo degli investitori nasce da una dinamica piuttosto concreta. L’azienda ha preso in prestito decine di miliardi di dollari per costruire nuovi data center destinati a clienti come OpenAI, un protagonista assoluto dell’attuale boom dell’intelligenza artificiale generativa. Il problema non è tanto la dimensione dell’investimento quanto la natura dei ricavi futuri. Molti di questi contratti presuppongono che i clienti continueranno ad avere accesso a capitali abbondanti nei prossimi anni. In altre parole, la sostenibilità finanziaria di parte della domanda dipende da futuri round di finanziamento.

La dirigenza di Oracle ha cercato di tranquillizzare il mercato con una frase che suona quasi come un mantra finanziario: alcuni dei maggiori consumatori di capacità cloud per l’AI hanno recentemente rafforzato in modo significativo la propria posizione finanziaria. Il riferimento è evidente alla recente raccolta da 110 miliardi di dollari legata al mondo OpenAI. Tuttavia la struttura di quel finanziamento merita un’analisi più attenta. Il capitale non arriva tutto subito e, come spesso accade nei grandi ecosistemi tecnologici, anche gli investitori stanno facendo leva sul debito.

Uno degli attori centrali in questa operazione è SoftBank, che secondo varie ricostruzioni sta cercando a sua volta di raccogliere capitale a prestito per sostenere la propria partecipazione nell’operazione OpenAI. La catena finanziaria diventa quindi piuttosto evidente: Oracle costruisce data center finanziandosi a debito per servire clienti che contano su capitali raccolti da investitori che, a loro volta, stanno cercando nuovi prestiti. L’intelligenza artificiale, nella sua incarnazione economica, somiglia sempre più a una serie di leve finanziarie interconnesse.

La storia economica offre numerosi precedenti di queste dinamiche. Le reti ferroviarie americane dell’Ottocento furono costruite con un entusiasmo simile, sostenute da debito e da aspettative di crescita quasi illimitata. Molte linee si rivelarono straordinariamente redditizie; altre finirono in bancarotta. Il punto non è che il modello fosse sbagliato. Il punto è che richiedeva un equilibrio delicato tra infrastruttura e domanda reale.

Il management di Oracle ha cercato di dimostrare che questo equilibrio esiste. Durante la conference call con gli analisti, i dirigenti hanno sottolineato come l’azienda stia riducendo il capitale necessario per nuovi data center grazie a contratti più creativi. Alcuni clienti pagano in anticipo per l’infrastruttura; altri portano direttamente i propri chip AI. L’idea è trasformare parte della spesa in capitale in un modello più leggero dal punto di vista finanziario.

Dal punto di vista ingegneristico l’idea è interessante. Dal punto di vista economico solleva una domanda inevitabile: quanto costa davvero questa flessibilità in termini di ricavi? Se un cliente porta le proprie GPU o paga anticipatamente per l’infrastruttura, è difficile immaginare che il prezzo finale rimanga identico. In altre parole, Oracle potrebbe ridurre il rischio finanziario ma al costo di margini più sottili.

L’azienda non ha ancora fornito dettagli precisi su questa dinamica. Gli investitori, come spesso accade, si trovano quindi a interpretare segnali incompleti. La metrica che rende la situazione più tangibile è il livello di investimento. Oracle ha previsto per l’anno fiscale 2026 una spesa in conto capitale di circa 50 miliardi di dollari, più del doppio rispetto all’anno precedente. Si tratta di una cifra che, per dare un riferimento, supera l’intero budget infrastrutturale di molte nazioni di medie dimensioni.

La conseguenza è piuttosto semplice. Gli analisti stimano che la società brucerà circa 23 miliardi di dollari di cassa in questo anno fiscale. Il dato assume una dimensione ancora più interessante se confrontato con la storia recente dell’azienda: tra il 2022 e il 2024 Oracle ha generato complessivamente circa 25 miliardi di dollari di cash flow. In altre parole, l’espansione AI sta assorbendo quasi quanto l’azienda ha prodotto in tre anni di attività.

L’asimmetria temporale è il cuore della questione. L’intelligenza artificiale richiede enormi investimenti immediati mentre i ricavi maturano lentamente nel tempo. Questo non è un difetto del modello ma una caratteristica intrinseca delle infrastrutture tecnologiche. Le reti elettriche, i cavi sottomarini e le infrastrutture cloud condividono la stessa logica economica: spendere oggi per monetizzare domani.

Il problema è che Wall Street vive di trimestri, non di decenni. Gli investitori tollerano il debito solo quando la traiettoria di crescita appare inevitabile. Negli ultimi mesi alcuni segnali hanno suggerito che la domanda di infrastrutture AI potrebbe essere meno lineare di quanto previsto. Il mercato ha reagito con una tipica oscillazione emotiva: prima entusiasmo quasi messianico, poi improvviso scetticismo.

L’ironia della situazione è che Oracle non è nemmeno il player più aggressivo in questa corsa. Giganti come Microsoft, Amazon e Google stanno investendo cifre comparabili per costruire la prossima generazione di infrastrutture AI. Il settore nel suo complesso si trova in una fase che ricorda l’inizio dell’era del cloud intorno al 2010, quando pochi credevano che la domanda avrebbe realmente riempito tutti quei data center.

La differenza è che l’intelligenza artificiale consuma risorse a un ritmo molto più intenso. L’addestramento di modelli avanzati richiede quantità colossali di energia, chip specializzati e capacità di rete. Ogni nuovo modello generativo sembra spingere il fabbisogno infrastrutturale verso livelli che fino a pochi anni fa sarebbero sembrati fantascienza.

Qualcuno ha osservato che l’AI potrebbe diventare la prima tecnologia digitale davvero limitata dalla fisica. Non dalla matematica, non dal software, ma dall’elettricità e dal cemento dei data center. Una provocazione, certo, ma non del tutto infondata.

Nel frattempo Oracle si trova in una posizione curiosa. Per decenni l’azienda è stata percepita come un veterano dell’era del software enterprise, un gigante stabile ma poco spettacolare. L’improvvisa trasformazione in infrastruttura chiave dell’economia dell’AI ha cambiato radicalmente la percezione del mercato. Alcuni investitori vedono una nuova fase di crescita esplosiva. Altri temono una gigantesca scommessa finanziaria.

Entrambe le interpretazioni contengono una parte di verità. L’intelligenza artificiale sta generando una domanda reale di potenza computazionale. Allo stesso tempo, il modo in cui questa domanda viene finanziata resta sorprendentemente fragile.

Il risultato è un ecosistema in cui capitale, debito e tecnologia si intrecciano in modo sempre più complesso. L’AI non è soltanto un fenomeno scientifico o culturale. È un gigantesco esperimento economico su scala globale.

Gli investitori possono aver lasciato l’ultima call sugli utili con un certo senso di sollievo. Tuttavia il rischio strutturale non è scomparso. È semplicemente nascosto sotto una montagna di GPU, contratti cloud e proiezioni di crescita.

La vera domanda, quella che nessuna presentazione agli analisti riesce a eliminare, rimane sorprendentemente semplice. Chi pagherà davvero l’infrastruttura dell’intelligenza artificiale tra cinque anni.

La risposta, come spesso accade nel capitalismo tecnologico, arriverà solo dopo che i data center saranno già stati costruiti. E a quel punto sarà il mercato a decidere se si trattava di visione strategica o di un’altra elegante bolla alimentata dall’eterna fede nella prossima rivoluzione digitale.