Quando Jensen Huang parla, Wall Street ascolta. Il CEO di Nvidia, l’uomo che ha trasformato la GPU da gadget per gamer in una macchina per stampare denaro, non lancia mai dichiarazioni a caso. Così, quando in un’intervista con Jim Cramer della CNBC afferma che il cloud AI di Oracle sarà “straordinariamente redditizio”, il mercato annusa la direzione del vento e si prepara a seguirla. Ma dietro questa frase apparentemente entusiastica si nasconde una visione precisa sul futuro del cloud computing, sull’economia dell’intelligenza artificiale e sulla nuova geografia del potere tecnologico.
Oracle, spesso considerata una veterana un po’ lenta nell’arena del cloud dominata da AWS, Microsoft e Google, sta giocando una partita molto diversa. Non punta a vincere la guerra della scala, ma quella dell’efficienza e dell’AI infrastructure. Il suo approccio è più chirurgico che espansivo. L’azienda ha deciso di puntare tutto sull’affitto di chip Nvidia di ultima generazione, i Blackwell, per alimentare i workload di intelligenza artificiale dei suoi clienti. Un modello che oggi sembra pesare sui margini, ma che nel ciclo di vita tecnologico disegnato da Huang, diventerà presto una macchina da profitti.
Secondo The Information, Oracle avrebbe perso circa 100 milioni di dollari negli ultimi tre mesi a causa proprio dei costi legati ai chip Nvidia. Un dato che, a prima vista, suona come un campanello d’allarme. Ma chi conosce l’economia del cloud sa che i margini iniziali negativi non sono un segnale di debolezza, bensì di investimento strutturale. Preparare data center per ospitare GPU di fascia altissima come i Blackwell richiede una combinazione di ingegneria, raffreddamento e ottimizzazione di rete che non genera ritorni immediati. Serve tempo perché i clienti arrivino, configurino i loro modelli e inizino a pagare.
Huang non parla mai solo di hardware. Quando afferma che nel corso del ciclo di vita di questa tecnologia Oracle sarà “incredibilmente profittevole”, sta ragionando come un architetto dell’ecosistema AI. Sa che la domanda di potenza computazionale per addestrare modelli linguistici, reti multimodali e AI generative è destinata a crescere esponenzialmente. La scarsità di GPU diventerà la nuova valuta di scambio dell’economia digitale. Oracle, con la sua capacità di fornire infrastrutture Nvidia su scala cloud, si posiziona come intermediario tra la sete di calcolo delle aziende e il rubinetto tecnologico che solo Nvidia controlla.
Il gioco è sottile ma potenzialmente devastante per i concorrenti. Mentre i big del cloud investono miliardi per sviluppare chip proprietari, come i TPU di Google o i processori Trainium di Amazon, Oracle ha scelto di non reinventare la ruota. Ha deciso di cavalcare quella di Nvidia, concentrandosi su efficienza, prezzo e velocità di implementazione. È una strategia quasi contrarian: anziché costruire un proprio chip, monetizza direttamente la leadership altrui, diventando una sorta di “broker di GPU”.
La prospettiva di Huang ha anche una valenza più ampia, quasi macroeconomica. L’intelligenza artificiale non è un prodotto, ma un’infrastruttura. E come ogni infrastruttura strategica, dal petrolio all’elettricità, attraversa una fase di investimento massiccio prima di generare ritorni esplosivi. L’AI cloud non fa eccezione. Le perdite iniziali di Oracle sono il prezzo d’ingresso per un mercato che, tra due anni, potrebbe vedere margini operativi a doppia cifra, spinti da una domanda senza precedenti.
È curioso osservare come l’immaginario collettivo interpreti male questo momento. Quando The Information parla di “solo il 16% di margine lordo”, molti leggono “debolezza”. In realtà, chi costruisce infrastrutture AI sa che il vero margine arriverà non dalla rivendita pura di potenza di calcolo, ma dai servizi di orchestrazione, ottimizzazione e fine-tuning dei modelli. Oracle non sta solo affittando GPU. Sta creando un ponte diretto tra i data center di Nvidia e le aziende che vogliono costruire il proprio motore di intelligenza.
Il linguaggio di Huang è spesso quello di un visionario travestito da ingegnere. Quando parla di “straordinaria redditività”, non descrive una fotografia, ma un film. Il film della transizione dal cloud generalista al cloud specializzato in AI, in cui i chip non sono più un componente, ma un asset strategico. In questa prospettiva, Oracle potrebbe diventare il player più sottovalutato dell’intera partita, un po’ come AMD lo fu ai tempi della supremazia Intel, salvo poi ribaltare il tavolo grazie a un’alleanza intelligente con lo stesso Huang.
La vera domanda non è se Oracle guadagnerà, ma quanto velocemente riuscirà a scalare la sua capacità di noleggio di GPU rispetto alla domanda globale. Il collo di bottiglia non è tecnologico, ma logistico e contrattuale. Ogni mese di ritardo nell’attivazione di nuovi cluster Nvidia significa milioni di dollari lasciati sul tavolo. Ma quando la pipeline sarà a regime, il modello di business sarà quasi automatico: le GPU lavorano, le aziende pagano, i margini esplodono.
L’ironia della storia è che Oracle, spesso accusata di essere una dinosauro dell’era pre-cloud, potrebbe ritrovarsi nel cuore pulsante della nuova rivoluzione dell’intelligenza artificiale. Mentre le startup sognano di costruire il prossimo ChatGPT, Oracle costruisce le fondamenta su cui quegli stessi sogni verranno eseguiti. È il classico caso in cui chi vende i picconi nella corsa all’oro fa più soldi di chi scava.
In fondo, il messaggio di Jensen Huang è un invito a leggere il bilancio come una narrazione, non come una tabella. I numeri del trimestre raccontano una perdita. Ma la trama industriale racconta l’inizio di una nuova rendita tecnologica. E in un mercato dove il tempo di adozione dell’AI si misura in mesi, non in anni, quella rendita potrebbe maturare molto prima di quanto i contabili di The Information siano pronti a credere.