OpenAI ha firmato un contratto settennale da 38 miliardi di dollari con AWS per assorbire “centinaia di migliaia” di GPU Nvidia nei prossimi anni. Entro fine 2026 tutta la capacità sarà operativa, con margine per espansione nel 2027 e oltre.
Questo significa che OpenAI smette (o quantomeno riduce fortemente) la sua dipendenza esclusiva da Microsoft Azure, superando quel “diritto di prelazione” che Microsoft ancora deteneva. Il legame con Microsoft non scompare: OpenAI ha un nuovo accordo vincolato fino al raggiungimento dell’AGI, e impegni d’acquisto per 250 miliardi di servizi Azure restano sul tavolo.
Altri dettagli evidenti: OpenAI ha già in essere un impegno con Oracle per 300 miliardi di dollari di potenza di calcolo. In parallelo, la società ha accordi strategici con Nvidia per distribuire almeno 10 gigawatt di infrastrutture basate sui suoi sistemi, con Nvidia che investirà fino a 100 miliardi di dollari progressivi.
Questo significa che OpenAI sta costruendo una “fabbrica AI” con un portafoglio di fornitori diversificato: AWS, Azure, Oracle, Nvidia, e altri chipmaker. È una strategia multilaterale per evitare vincoli troppo stretti con un solo partner.
Le implicazioni geopolitiche, finanziarie e competitive
Dal lato di AWS, questo accordo è un colpo da maestro. Fino ad oggi, il cloud di Amazon era visto come più debole rispetto a Microsoft o Google nell’ambito AI di frontiera. Ora entra a pieno titolo nella partita. Il mercato ha reagito subito, con un +5 % per le azioni Amazon nel premarket.
Per Nvidia, è gasare i motori. La sua posizione come fornitore hardware dominante si rafforza ulteriormente: OpenAI porterà una domanda mastodontica di GPU e infrastruttura. E dal punto di vista del capitale, questi accordi sono ormai nell’ordine del trilione (nelle proiezioni di spesa), il che alza la posta su rischi, valutazioni e sostenibilità dell’ecosistema AI.
È inevitabile che si sollevino dubbi: una tale concentrazione di risorse nell’AI infrastrutturale rischia di generare barriere all’ingresso, consolidamento monopolistico e pressioni regolatorie. Inoltre il problema dell’elettricità, della latenza, del cooling e della scalabilità fisica restano sfide non banali.
Quanto del “capacità totale entro il 2026” è conservativo? Cosa succede se la domanda cresce molto più velocemente? Quanto margine di espansione “oltre il 2027” è realistico?
Poi: quanto di questo accordo è cash, quanto è strutturato in termini di crediti, impegni vincolanti, warrant, equity o contropartite tecniche? Le grandi aziende tech fanno quasi sempre “pacchetti misti” con clausole condizionali.
Infine: quale effetto avrà questa diversificazione sull’efficienza operativa di OpenAI? Mantenere compatibilità tecnica e performance su infrastrutture AWS, Azure e Oracle è complicato. Ottimizzare workload, orchestrazione, rete, storage distribuito richiederà ingegneria di altissimo livello.