OpenAI non è più soltanto la startup visionaria che faceva tremare Google e Facebook con demo accattivanti di chatbot intelligenti. È diventata un’infrastruttura planetaria, un servizio che avanza con la velocità di un virus e che presto, secondo le ultime indiscrezioni, potrebbe sfiorare il miliardo di utenti attivi settimanali. E quando un software raggiunge numeri del genere, non basta più avere un modello linguistico brillante. Serve la garanzia ossessiva che funzioni sempre, in ogni momento, per chiunque. Ecco perché secondo The Information l’azienda guidata da Sam Altman starebbe considerando un investimento monstre da 100 miliardi di dollari in server cloud di backup, una cifra che da sola supererebbe il prodotto interno lordo di molti Paesi emergenti.

Il dato che colpisce non è solo la cifra in sé, ma il fatto che questi 100 miliardi si andrebbero ad aggiungere a un piano di spesa già dichiarato da 350 miliardi fino al 2030. Numeri che farebbero sorridere persino i più spregiudicati banchieri di Wall Street. Eppure, in questa apparente follia contabile c’è una logica brutale: se ChatGPT va giù per qualche ora, il danno non è più solo reputazionale ma sistemico, con aziende, scuole, professionisti e persino governi che ormai dipendono dall’AI conversazionale. OpenAI ha già subito blackout che hanno lasciato milioni di utenti a fissare schermi vuoti con la stessa frustrazione di un trader di fronte a Bloomberg offline. Non c’è margine per ripetere simili errori.

L’aspetto più provocatorio è che OpenAI, nonostante l’aura da pioniera tecnologica, resta totalmente dipendente dai fornitori esterni. Microsoft Azure resta il partner dominante, grazie al legame finanziario e infrastrutturale che ha fatto di Redmond il motore principale dietro ChatGPT. Ma nell’elenco dei fornitori strategici troviamo anche Google Cloud, Oracle Cloud e persino CoreWeave, startup emergente che ha trasformato la scarsità di GPU in una miniera d’oro. Tutti uniti in un ecosistema che ruota attorno a un nome inevitabile: NVIDIA, la cui produzione di GPU è ormai la vera moneta dell’intelligenza artificiale globale. Senza quelle schede, nessun backup server, nessun cloud, nessun miliardo di utenti.

In questo scenario, l’idea di OpenAI di spendere 100 miliardi esclusivamente per server di backup sembra quasi un atto di paranoia lucida. Non basta avere capacità primaria, serve ridondanza, resilienza, continuità operativa. È come se l’azienda si stesse preparando non solo a gestire picchi di domanda ma a fronteggiare catastrofi digitali, attacchi informatici o crisi energetiche. Chi pensa che si tratti di eccesso di zelo dovrebbe considerare che ChatGPT non è più un giocattolo ma un’infrastruttura di riferimento per intere catene di valore. Quando un avvocato scrive una bozza di contratto con GPT, o un medico rielabora informazioni cliniche, o un governo sperimenta chatbot per servizi pubblici, la disponibilità del sistema diventa materia di sicurezza nazionale.

Il paradosso è che un modello nato come software di ricerca open source stia generando una pressione senza precedenti sui sistemi fisici. Ogni nuovo utente che si connette, ogni prompt che viene inviato, ogni query di testo che sembra innocua, si traduce in un’operazione energivora che deve essere gestita da infrastrutture gigantesche. È qui che l’economia dell’intelligenza artificiale rivela la sua contraddizione più profonda: il mito del digitale immateriale si schianta contro la realtà dei server, dei megawatt, delle supply chain di chip. Chi pensava che il cloud fosse un’idea astratta dovrà abituarsi a immaginarlo come un’industria pesante fatta di ferro, cemento, silicio e fiumi di elettricità.

Le proiezioni finanziarie aggiungono un ulteriore livello di complessità. OpenAI dichiara di aspettarsi 200 miliardi di dollari di ricavi entro il 2030, con la promessa implicita che da quel momento l’azienda inizierà finalmente a generare cassa. In altre parole, la società sta chiedendo agli investitori e al mercato di credere a un modello dove si spendono centinaia di miliardi oggi per costruire una macchina che inizierà a rendere solo tra cinque o sei anni. È la stessa logica che ha sostenuto le grandi piattaforme digitali nel loro periodo di espansione, ma qui il livello di rischio appare amplificato da ordini di grandezza. Un errore di calcolo potrebbe trasformare la più grande scommessa tecnologica del decennio in un Titanic finanziario.

Per i concorrenti, lo scenario è al tempo stesso minaccioso e stimolante. Google, che sta ancora cercando di trovare un equilibrio tra la propria infrastruttura cloud e il rilancio del progetto Gemini, osserva con apprensione come OpenAI continui a catalizzare risorse e attenzione. Amazon, regina storica del cloud con AWS, deve affrontare il fatto che la vera battaglia non è più per i clienti corporate tradizionali ma per i colossi dell’AI che muovono miliardi di query al giorno. Oracle, fresca dei suoi colpi di teatro con Meta e TikTok, potrebbe diventare uno degli attori cruciali anche per OpenAI. Microsoft, dal canto suo, cavalca la partnership come se fosse l’assicurazione sul futuro della propria leadership.

Non bisogna sottovalutare nemmeno la dimensione geopolitica. Il miliardo di utenti di ChatGPT non sarà distribuito in maniera omogenea. Ci saranno regioni privilegiate e altre escluse, sia per ragioni regolatorie che per limiti infrastrutturali. Già oggi l’Europa discute su come bilanciare innovazione e tutela della privacy, mentre la Cina continua a promuovere alternative domestiche per evitare dipendenze dall’Occidente. In questo contesto, la scelta di OpenAI di blindare la propria infrastruttura con 100 miliardi di dollari in server cloud assume il sapore di una dichiarazione di potenza. È un modo per dire al mondo: siamo qui per restare, anche se questo comporta costruire il Fort Knox dell’intelligenza artificiale.

C’è poi la questione più filosofica, che molti evitano per pudore ma che aleggia in ogni boardroom. Che senso ha creare una tecnologia capace di generare testi, immagini, codici e persino strategie di business, se per mantenerla in vita occorrono spese da piano Marshall? La promessa dell’AI era quella di liberare risorse, aumentare l’efficienza, ridurre i costi. Invece ci ritroviamo con bilanci che assomigliano a progetti spaziali. Qualcuno potrebbe obiettare che siamo nella fase iniziale, quella dove l’investimento è sproporzionato rispetto ai ritorni ma necessario per costruire un vantaggio competitivo. Il problema è che l’AI non si comporta come Internet negli anni Novanta. Qui i costi marginali non scendono in modo lineare, perché ogni salto generazionale richiede modelli più grandi, più complessi, più affamati di calcolo.

La stessa narrativa del backup merita una riflessione. Nel linguaggio tecnologico, backup significa sicurezza, ridondanza, affidabilità. Ma quando parliamo di 100 miliardi di dollari, non siamo più nel campo delle buone pratiche IT, siamo in un’operazione che ridefinisce il concetto stesso di infrastruttura critica. È come se OpenAI stesse cercando di costruire non solo un cloud di backup, ma un vero e proprio gemello digitale della propria infrastruttura primaria. Una duplicazione che richiama logiche militari più che commerciali. Non a caso, i vertici di molte aziende tech hanno iniziato a parlare apertamente di AI come di un asset di interesse strategico nazionale, al pari dell’energia o delle telecomunicazioni.

La corsa all’intelligenza artificiale ha assunto ormai i tratti di una bolla? Forse sì, forse no. Ma ciò che è certo è che OpenAI, con questa mossa, si posiziona al centro della narrazione. Nessun altro player ha osato parlare di centinaia di miliardi spesi solo per infrastruttura. Ed è qui che entra in gioco la psicologia del mercato: annunciare un piano di queste dimensioni non serve solo a tranquillizzare gli utenti, serve a intimidire i concorrenti, a spingere investitori e partner a credere che questa sia l’unica strada possibile. È marketing strategico mascherato da prudenza tecnica.

E mentre il pubblico continuerà a chiedere al chatbot consigli su come cucinare una carbonara perfetta suscitando discussioni filosofiche polarizzanti… o scrivere un’email al capo, dietro le quinte si consumerà una delle più grandi partite economiche del nostro tempo. Una battaglia che non si gioca sul design dell’interfaccia o sulla qualità delle risposte, ma sulla capacità di costruire e mantenere in piedi una macchina che divora energia, capitali e talento umano con una fame insaziabile. OpenAI, con i suoi 100 miliardi di backup servers, ci sta dicendo che l’intelligenza artificiale non è più un settore dell’innovazione tecnologica. È diventata l’infrastruttura su cui poggerà il prossimo decennio di capitalismo digitale.