Da una parte una delle aziende più sottovalutate ma più longeve del cloud enterprise. Dall’altra il semidio delle GPU che ha reinventato la traiettoria del calcolo. Ecco a voi Oracle e NVIDIA: una strana coppia in missione per colonizzare l’intelligenza artificiale con un approccio che odora di strategia da Guerra Fredda più che di semplice evoluzione tecnologica.
L’annuncio? Di quelli che a prima vista sembrano uno dei tanti comunicati stampa scritti in stile-benessere-aziendale. Ma sotto la superficie c’è molto di più. Oracle ha deciso di spingere tutto il suo stack cloud nelle braccia muscolose della piattaforma AI di NVIDIA. E non si tratta solo di un abbraccio tecnico: parliamo di un’integrazione nativa, radicale, e soprattutto distribuita, che mette insieme 131.072 GPU Blackwell e il DGX Cloud Lepton. No, non è fantascienza: è OCI (Oracle Cloud Infrastructure) in versione steroidea.

Il dettaglio più gustoso? NVIDIA AI Enterprise, finora disponibile solo via marketplace come se fosse un’app da comprare col carrello, ora è integrato direttamente nella console OCI. Senza interfacce, senza loop infiniti di licenze. Chi ha già credito Oracle, può usarlo. Un passo che sembra piccolo, ma che in realtà cambia completamente il flusso operativo per chi sviluppa modelli generativi complessi o agenti AI multi-modali.
In fondo, questo è l’ennesimo atto della “guerra dell’AI a tre” che vede coinvolti i soliti colossi: Amazon (AWS), Microsoft (Azure), e Google (Cloud AI). Ma ora Oracle entra davvero in campo, con un arsenale di GPU e una strategia che ha il sapore di un piano industriale europeo… eseguito dal Texas.
Perché sì, sebbene il cuore tecnico batta nell’infrastruttura californiana, il bersaglio principale è chiaramente l’Europa.
L’integrazione con DGX Cloud Lepton offre alle aziende europee – e ai loro regolatori sempre più ansiosi – la possibilità di addestrare modelli di AI su risorse geograficamente localizzate, persino sovrane. Un passaggio fondamentale per chi deve rispettare i limiti imposti da GDPR, AI Act e compagnia bella. Più che un servizio cloud, una scialuppa di salvataggio per l’innovazione europea sotto sorveglianza.
Ma ciò che trasforma questo annuncio da semplice espansione tecnologica a svolta geopolitica è l’elemento di “AI factory”. Il termine, già di per sé mefistofelico, diventa ancora più potente se lo leggiamo nella sua forma completa: sistemi rack-scale basati sulla piattaforma NVIDIA GB200 NVL72, capaci di combinare 36 CPU Grace e 72 GPU Blackwell. Qui non si tratta più di lanciare modelli su notebook o cluster eterei, ma di costruire fabbriche fisiche e logiche per la produzione su larga scala di agenti AI autonomi.
D’altronde, Oracle non è nuova a questo genere di trasformazioni. Ha passato anni a posizionarsi in silenzio mentre gli altri sventolavano modelli e piattaforme open-source. Ora, come un saggio samurai, colpisce con precisione, sfruttando le debolezze altrui: frammentazione, mancanza di compliance, costi opachi, latenza nella scalabilità.
Chi ha fiutato per primo il potenziale? Un manipolo di pionieri europei. Almawave, per esempio, che sta costruendo la famiglia Velvet di modelli LLM multilingua, con un focus sull’italiano (finalmente), ma anche su inglese, francese e tedesco. E poi Cerebriu, la danese che vuole rivoluzionare l’analisi clinica delle risonanze magnetiche cerebrali. Entrambe sfruttano OCI con GPU NVIDIA Hopper, come se fossero motori turbo per treni AI ad alta velocità.
Il messaggio subliminale qui è chiaro: Oracle vuole essere la piattaforma per l’AI industriale, non per gli esperimenti hobbistici. E NVIDIA? Sta scegliendo con sempre più cura i suoi alleati. Dopo aver flirtato con tutti, ora sembra voler mettere radici strategiche. Lepton, la nuova creatura pensata per sviluppatori assetati di GPU sparse nel mondo, è un altro tassello nella visione di un’infrastruttura AI globale ma regolabile, scalabile ma governabile.
Chi si trova fuori da questo asse? I piccoli provider cloud che ancora sognano di offrire AI-as-a-Service con qualche V100 o A100 riciclata. Inutile: l’epoca del “data center garage” per l’intelligenza artificiale è finita. Ora serve potenza distribuita, compliance by design e, soprattutto, l’accesso a modelli e microservizi come NVIDIA NIM, che fanno girare inferenze complesse come se fossero funzioni serverless.
Questa partnership ha anche un altro effetto collaterale interessante: riscrive la mappa mentale del cloud enterprise. Oracle, fino a ieri vista come l’eremita dei database legacy, oggi si propone come la prima hyperscaler “AI-native”, dove l’hardware non è solo un optional, ma un elemento core. E NVIDIA, sempre più a suo agio in ruoli da operatore cloud, si trasforma in abilitatore di sovranità tecnologica.
Nel contesto attuale, in cui l’Europa teme la dipendenza tecnologica quasi quanto quella energetica, un’infrastruttura AI così articolata e localizzabile è più che una feature: è una dichiarazione di intenti.
A chi pensa ancora che Oracle sia un dinosauro dei tempi andati, suggerirei di guardare la mappa dei deployment distribuiti: Dedicated Region, Sovereign Cloud, Alloy, Edge Devices. La narrazione è cambiata. I mattoni del cloud Oracle non sono più rigidi blocchi SQL ma infrastrutture flessibili, ingegnerizzate per adattarsi a ogni necessità AI: inferenza, addestramento, reasoning, agenti autonomi.
Ironia della sorte: nel momento in cui l’AI sembra disintermediare le vecchie architetture enterprise, proprio Oracle torna al centro. E non lo fa con una startup, ma con NVIDIA, il re Mida del calcolo accelerato.
Il 2025 non sarà l’anno in cui le AI domineranno il mondo. Ma sarà sicuramente l’anno in cui scopriremo su quale infrastruttura saranno addestrate. E se oggi qualcuno ancora dubita che Oracle possa reggere la corsa, suggeriamo di dare un’occhiata ai 131.072 motivi per cui Blackwell potrebbe essere il motore invisibile della nuova intelligenza.
Altro che cloud neutro. Qui si fa la storia. E, sorpresa: Oracle è sul podio.