C’è qualcosa di poetico nel fatto che l’intelligenza artificiale, la più incorporea delle rivoluzioni, stia cementificando il pianeta sotto milioni di tonnellate di acciaio, cavi in fibra ottica e turbine ad alta tensione. Mentre i visionari della Silicon Valley vendono algoritmi come se fossero fuffa mistica, la vera guerra si combatte nei deserti texani, nelle paludi della Louisiana, nei freddi angoli dell’Oregon, dove i data center HPC si moltiplicano come formicai radioattivi. Altro che nuvola: qui servono ettari di cemento, interi bacini idrici, e il consumo energetico di nazioni intere per far girare LLM e modelli AI che promettono di capire l’animo umano, ma non riescono ancora a distinguere tra una banana e un cacciavite in un’immagine sfocata.

Meta, per esempio, ha appena firmato il proprio testamento energetico con un mostro da oltre 2 gigawatt in costruzione in Louisiana. Quando sarà operativo nel 2030 consumerà più corrente di tutto il Ghana. Ma non aspettatevi di affittarci un server: Meta non fa IaaS, non è Amazon, né Microsoft. Non vende potenza di calcolo in affitto, non ospita clienti, non gioca a fare il supermercato del cloud. Si costruisce la propria fortezza digitale, esclusivamente per addestrare i suoi modelli, i suoi LLM, le sue AI generative, in un’autarchia computazionale degna della Corea del Nord digitale. E in un certo senso ha ragione: perché mai condividere la propria armeria se la guerra è alle porte?

In questa rissa geopolitica per il dominio algoritmico, Oracle gioca la sua partita in modo più silenzioso ma non meno strategico. Mentre gli altri sbandierano GPU NVIDIA come se fossero medaglie olimpiche, Oracle si infiltra in nicchie verticali ad altissimo valore aggiunto: sanità, finanza, difesa. La sua piattaforma cloud, si è ritagliata uno spazio non trascurabile nel mercato IaaS grazie a partnership mirate, soprattutto con settori che richiedono basse latenze, compliance feroce e personalizzazione hardware e lo fa con una combinazione di chip NVIDIA, CPU Ampere, architetture modulari e un pragmatismo industriale che ricorda più General Electric che Google. In silenzio, Oracle sta costruendo la sua versione della Manhattan Project del calcolo distribuito, solo che invece delle bombe atomiche produce inferenze predittive per la CIA.

Il punto è che questa corsa all’infrastruttura HPC non è più un gioco tra nerd. È un’operazione di scala continentale che riscrive la geografia economica americana. Le stime più conservative parlano di oltre 320 miliardi di dollari all’anno in spesa infrastrutturale solo da parte dei big tech statunitensi. Microsoft, da sola, ne spenderà 80 nel 2025. Amazon supera i 100. Numeri che non indicano solo un boom, ma una mutazione strutturale: la computazione non è più un servizio, è una utility, come l’acqua o l’elettricità. E come ogni utility, ora richiede regolatori, leggi, guerre fredde.

A guidare questo delirio ci sono loro: le GPU. Anzi, una GPU. La NVIDIA H100 è il nuovo idolo. Alimenta tutto, dai chatbot che ti consigliano il vino ai modelli predittivi della sicurezza nazionale. E domina il mercato in modo imbarazzante: oltre il 98% delle GPU avanzate nei data center porta il marchio NVIDIA. AMD fa quello che può con i suoi acceleratori Instinct, soprattutto nei supercomputer federali, ma la musica la dirige Jensen Huang, ormai più vicino a una figura papale che a un CEO. I suoi chip non sono semplici processori, sono strumenti geopolitici. È difficile dirlo senza ridere, ma i wafer di silicio sono oggi più importanti degli aerei da combattimento.

E la sete di energia è fuori controllo. Frontier, il supercomputer all’Oak Ridge National Lab, consuma 21 megawatt. Ogni rack GPU moderno brucia tra i 50 e i 100 kilowatt. Chiunque parli ancora di “cloud” come fosse un’entità eterea farebbe bene a visitare uno di questi impianti: niente etere, solo cavi bollenti, trasformatori, raffreddamento a liquido e ventole che urlano come motori a reazione. L’aria non basta più: serve immersione. Letteralmente. I server vengono affogati in fluidi dielettrici come se fossero martiri digitali.

E mentre la domanda cresce, la rete elettrica statunitense arranca. In Virginia, epicentro dei data center, Dominion Energy ha già messo le mani avanti: non ce la facciamo. In alcune aree della contea di Loudoun non ci sarà abbastanza elettricità per collegare nuovi impianti. Inizia così il cortocircuito: le AI servono a ottimizzare tutto, ma il loro stesso funzionamento disottimizza il sistema. È come se avessimo inventato l’intelligenza artificiale per scoprire quanto siamo idioti.

Ci sono tre scenari possibili da qui al 2030. Nel caso base, gli Stati Uniti avranno circa 1.000 data center HPC. In quello realistico, 1.500. Nello scenario ottimistico, 2.000, per un consumo che potrebbe arrivare a 100 gigawatt: l’equivalente della capacità elettrica dell’intero Belgio. Ma chi li costruisce questi data center? Holder, Turner, DPR, HITT. Veri e propri eserciti di ingegneri edili, prefabbricazione modulare, pod da 10 megawatt ciascuno, permessi ambientali, connessioni in fibra, trattative con le utility. Un data center HPC oggi richiede dai 18 ai 36 mesi per diventare operativo, e ogni errore si paga in milioni.

I costi operativi sono un altro inferno. Il raffreddamento ad aria è finito. Troppo inefficiente. Il raffreddamento a immersione, anche se inizialmente più costoso, offre un Total Cost of Ownership (TCO) migliore dopo il terzo anno. È l’unica opzione plausibile sopra i 100 kW per rack. Il problema? Acqua. Litri, milioni di litri. E le autorità locali iniziano a farsi domande: vogliamo modelli linguistici più fluidi o vogliamo ancora bere?

Poi c’è il nodo della produzione di chip. Il collo di bottiglia vero non è l’ingegno, è il packaging ad alta densità per le HBM. La dipendenza quasi totale da TSMC e Samsung rende vulnerabile l’intero ecosistema. Non è un caso che ogni stratega militare americano stia improvvisamente diventando un esperto di litografia EUV e supply chain asiatiche.

E non dimentichiamo il capitale umano. I data center non si costruiscono da soli, né si gestiscono con prompt in ChatGPT. Servono tecnici, operatori, ingegneri, project manager. Ma mancano. Le imprese stanno rispondendo con la prefabbricazione e la standardizzazione, ma la verità è che costruire la spina dorsale della civiltà digitale richiede più mani, non meno.

Nel frattempo, i supercomputer pubblici resistono come simboli dell’orgoglio nazionale. Frontier, Aurora, El Capitan. Exaflops come se piovesse. GPU AMD, GPU Intel, acceleratori ovunque. Ma il vero potere si sposta verso le superpotenze private: Microsoft con OpenAI, Google con le sue TPU, Amazon con Trainium e Inferentia, CoreWeave che sbuca dal nulla con 15 data center e capitali freschi da fondi hedge assetati di AI.

Nel 2030, che si arrivi allo scenario base o a quello ottimistico, una cosa è certa: l’infrastruttura digitale americana non sarà più un’industria, ma una piattaforma geopolitica. La domanda non sarà più “quale modello AI usi?”, ma “quanta elettricità puoi permetterti di bruciare oggi?”.

Chi controlla il calcolo, controlla l’ordine economico. E chi investe oggi, sta disegnando le dinastie industriali del secolo. Non sarà l’algoritmo migliore a vincere, ma quello con il miglior impianto di raffreddamento.

Thanks to S.M. The Braniac