Nvidia cloud. Suona bene, quasi come una dichiarazione di guerra, e infatti per un attimo sembrava che Jensen Huang fosse pronto a sfidare Jeff Bezos sul suo stesso terreno. Il progetto DGX Cloud era stato presentato come l’alternativa premium, l’oasi GPU-centrica dentro l’arida prateria dei cloud generalisti. Ma la realtà, come sempre, è meno poetica. Nvidia ha deciso di tirare il freno a mano. Non che chiuda il baraccone, sia chiaro, ma smette di fare la concorrenza frontale ad AWS e ai suoi cugini Microsoft e Google.
Una ritirata elegante, raccontata come “scelta strategica di collaborazione”. Tradotto dal gergo corporate: abbiamo visto che stava diventando un suicidio.Il motivo è quasi banale. Nvidia vive vendendo i suoi chip a quelli che avrebbe dovuto combattere. AWS, Microsoft Azure, Google Cloud. Non semplici clienti, ma clienti colossali che comprano in blocco l’intero arsenale di GPU H100 e presto Blackwell.
Fare la concorrenza a chi ti paga i conti significa mordere la mano che ti nutre. Huang è spavaldo, ma non stupido. Meglio ammorbidire il gioco, vendere tonnellate di silicio e lasciare che siano gli altri a sobbarcarsi il lavoro sporco di gestire data center, SLA e clienti insoddisfatti alle tre di notte.
La retorica ufficiale è che Nvidia non abbandona il cloud, semplicemente preferisce collaborare con i provider piuttosto che sfidarli. DGX Cloud resta in piedi, ma come servizio di nicchia, quasi un laboratorio dove mostrare cosa si può fare con l’hardware Nvidia, non certo come alternativa mainstream a AWS.
È come dire: abbiamo aperto un ristorante, ma siccome i supermercati ci comprano tutti i prodotti, ora cuciniamo giusto per fare vedere agli amici come si fa.AWS intanto sorride, ma non troppo. Perché anche se Nvidia si ritira sul piano dei servizi, resta comunque il fornitore indispensabile di hardware.
Ed è qui che entra in scena la partita più interessante: quella dei chip AI. Amazon non ha nessuna voglia di dipendere all’infinito da un’azienda che ha il monopolio delle GPU per l’AI.
Per questo ha lanciato Trainium, un processore costruito per ridurre la dipendenza da Nvidia e abbattere i costi e ci sta investendo miliardi, fino al punto di costruire un supercomputer, Ultracluster, che suona già come un avvertimento: cari clienti, non servono più solo le GPU Nvidia per allenare i vostri modelli.
Il paradosso è che Nvidia ha bisogno di AWS tanto quanto AWS ha bisogno di Nvidia. È una relazione tossica. Da un lato Nvidia fornisce il cervello di ogni progetto AI serio, dall’altro AWS fornisce il corpo, l’infrastruttura, il sangue che circola nei data center globali. Ognuno sogna segretamente di non avere bisogno dell’altro, ma per ora sono incastrati in una dipendenza reciproca che ricorda certe coppie hollywoodiane: tutti sanno che prima o poi finirà male, ma nel frattempo continuano a sorridere davanti ai fotografi.
C’è poi la questione dei costi. Gestire un cloud non è come vendere chip. È un business brutale, fatto di margini sottili, bollette energetiche che sembrano debiti sovrani e clienti enterprise che ti trattano come un idraulico reperibile 24 ore su 24.
Non è difficile capire perché Nvidia abbia preferito restare nel suo regno dorato delle GPU, dove la domanda esplode e i prezzi sono da monopolista. Fare il cloud provider significa correre maratone logistiche contro AWS, che ha vent’anni di vantaggio, miliardi di server e un esercito di clienti fidelizzati. Perché mai sprecare energie lì, quando puoi vendere le pale d’oro a chiunque stia scavando nella miniera dell’intelligenza artificiale?
Non dimentichiamo che AWS non è esattamente un cliente tenero. Ha già dimostrato con i chip Graviton e Trainium di saper sviluppare internamente alternative per ridurre i costi. Ogni dollaro che paga a Nvidia è visto come una tassa da abbattere e se Amazon dovesse davvero riuscire a costruire chip competitivi con le GPU, allora Nvidia rischierebbe di trovarsi con un castello d’oro ma senza sudditi.
Meglio quindi non provocare troppo il gigante e mantenere un equilibrio fragile. Ufficialmente amici, ufficiosamente rivali, segretamente pronti a pugnalarsi alla prima occasione.
Il bello è che questo non è un dietrofront definitivo, ma un passo laterale. Nvidia non smetterà mai di sognare il suo cloud, semplicemente aspetta il momento giusto.
DGX Cloud diventa un showroom, un giocattolo per convincere i clienti enterprise che il futuro è fatto di GPU Nvidia e che chiunque voglia sopravvivere deve inchinarsi al loro ecosistema. È un esercizio di branding più che di business. Non servono miliardi di fatturato dal cloud quando puoi usarlo come leva per vendere altri miliardi di chip.
Il messaggio subliminale è chiaro: cari clienti, potete comprare da AWS, ma sappiate che sotto il cofano gira tutto grazie a Nvidia e se un giorno AWS decidesse di fare troppo il furbo, Nvidia può sempre riaprire i rubinetti del cloud diretto e saltare la mediazione. Una minaccia elegante, mai detta apertamente, ma sempre presente come un’ombra.
Così oggi la narrativa ufficiale è che Nvidia non compete più direttamente con AWS nel cloud. Ma chi conosce davvero il settore sa che questa è una tregua, non una resa. AWS accelera con i suoi chip AI, Nvidia consolida la sua dittatura delle GPU. Ognuno gioca su più tavoli, ognuno cerca di rendere l’altro dipendente. È il classico equilibrio del terrore tecnologico: nessuno osa muovere troppo perché sa che il prezzo sarebbe catastrofico.
La morale di questa storia è che il vero cloud, quello che conta, resta sempre e solo Nvidia cloud, anche se a noleggiarlo sono AWS e Microsoft e la vera partita non è il servizio, ma il chip.
Chi controlla il chip controlla l’AI, e chi controlla l’AI controlla il futuro. Per ora, Jensen Huang può ridere sotto i baffi: AWS può costruire quanti Trainium vuole, ma quando si tratta di scalare modelli da miliardi di parametri, il mondo intero continua a bussare alla porta di Nvidia.