La rivoluzione dell’AI non avviene sul palco visibile degli algoritmi: accade dietro le quinte, nel buio metallico dei datacenter, dove i veri contendenti si sfidano per il dominio sui supercomputer che alimentano i modelli generativi. Non è una guerra sui dati né sulle reti: è una guerra sull’elettricità, sul silicio e sulla capacità di orchestrare decine di migliaia di GPU come un esercito silenzioso.

Ai supercomputer con GPU non serve il fine scientifico predizione del tempo, simulazioni nuclearima la generazione di testo, immagine, agenti decisionali. E per farlo servono scale gigantesche: cluster con migliaia se non centinaia di migliaia di Nvidia H100, Google TPU o acceleratori custom emergenti. Questi sistemi non simulano fisica: predicono il prossimo “token” (parola, pixel, passo d’azione). Li potremmo chiamare predittori massivi.

Queste macchine divorano energia come città silenziose. IEA stima che già i data center orientati all’AI consumino quanto 100.000 case, e quelli più grandi in costruzione attualmente potrebbero arrivare a 20 volte tanto. In globale, il consumo elettrico dell’IA, già stimato attorno all’1-1,3 % della domanda mondiale, è destinato a impennarsi. Le stime prevedono che entro il 2029 gli acceleratori AI potrebbero assorbire fino al 1,5 % dell’elettricità globale.

Ogni generazione hardware peggiora (o migliora) l’equilibrio tra prestazioni e consumo: la H100 con modulo SXM può toccare 700 W, significativamente più energivora della generazione precedente. I cluster di nuova generazione lanciano richieste aggregate che misurano centinaia di megawatt: si parla persino di sistemi come xAI Colossus che sfiorano i 280 MW operativi.

Ecco perché questa è una corsa segreta ma letale: chi ha la forza di costruire, raffreddare, alimentare e gestire questi giganti avrà un vantaggio strategico. Le nazioni, le aziende cloud, i colossi del chip si contendono la supremazia. Microsoft + OpenAI investono su Azure + Stargate; Google spinge su TPU e Gemini; Amazon scommette su Trainium; la Cina sviluppa la linea Ascend di Huawei. Ogni cluster non è solo capacità, è sovranità, un’arma ibrida che modella chi domina gli algoritmi e chi decide policy.

La concentrazione del compute è un rischio: crea colli di bottiglia nell’accesso all’AI, stereotipi tecnologici e molteplici fratture d’innovazione. Le aziende emergenti diventano dipendenti da chi fornisce GPU e infrastrutture, rinunciando a libertà di scelta e scalabilità indipendente. Le implicazioni etiche sono vertiginose: chi governa i cluster controlla modelli che orchestrano reti sociali, propaganda digitale, sorveglianza automatica, sistemi di difesa.

L’impatto ambientale è centrale. Non basta calcolare il consumo delle GPU: serve considerare raffreddamento, memoria ad alta velocità, alimentazione continua. I modelli operativi adottano soluzioni come pianificazione energetica dinamica e raffreddamento chiuso per ottimizzare l’efficienza. Il supercomputer OLCF perciò sperimenta nuove architetture low-power per massimizzare performance mantenendo controllo sui consumi.

In parallelo, emergono acceleratori alternativi per rompere il monopolio GPU. Nvidia domina il mercato degli acceleratori, ma la sua tenaglia è sotto attacco: aziende come Cerebras, Graphcore e startup europee sperimentano design specializzati per inferenza o training, con efficienza energetica superiore. Nvidia risponde evolvendo l’efficienza dei suoi chip: la famiglia GB200 promette un salto di 25× in efficienza sull’inferenza rispetto alla generazione Hopper.

Sul piano geopolitico, il dominio del compute ricalca le dinamiche di potenza degli Stati. Gli Stati Uniti vantano circa il 74 % della capacità di supercalcolo IA ad alta fascia, mentre Cina è attorno al 14 % e l’UE solo al 4,8 %. Il controllo di mega-cluster è oggi più strategico dell’arsenale nucleare: perché chi controlla il calcolo può lanciare nuovi modelli, bloccarne l’addestramento, imporre regole o vincoli all’accesso.

Negli investimenti è una violenza silenziosa. McKinsey denuncia che il “costo del compute” potrebbe raggiungere i 7.000 miliardi di dollari. I grandi cloud Amazon, Google, Microsoft, Meta – stanno riversando centinaia di miliardi per espandere data center IA. CoreWeave ha appena firmato un contratto da 14 miliardi con Meta per fornire infrastrutture IA. E OpenAI ha siglato un accordo gigantesco con AMD per la fornitura di GPU a sei gigawatt, dando all’azienda la facoltà di acquisire fino al 10 % del capitale.

Il conflitto di potere non è più sugli algoritmi, ma su chi controlla il ferro. L’IA appartiene non a chi la inventa, ma a chi la alimenta e la governa. Chi vincerà la corsa del compute deterrà il dominio tecnologico nel futuro prossimo.