Nel grande racconto contemporaneo dell’intelligenza artificiale, quello che domina le prime pagine e le slide dei venture capitalist, esiste una frattura sempre più evidente tra narrativa e realtà fisica. Mezzo trilione di dollari investiti globalmente negli ultimi cinque anni in startup AI raccontano una storia di fiducia quasi messianica nella capacità del software di reinventare l’economia; tuttavia, come spesso accade nei cicli tecnologici maturi, il vincolo non è più logico ma materiale. L’AI non si sta fermando per limiti algoritmici, almeno non ancora; si sta fermando per mancanza di energia. E questa non è una metafora elegante, è un dato industriale brutale.
Le cifre che emergono dal report di Sightline Climate sono difficili da ignorare, anche per chi è abituato a filtrare hype e numeri gonfiati. Su circa 190 gigawatt di capacità di data center tracciata, solo 5 gigawatt sono effettivamente in costruzione. Ancora più interessante, e forse più preoccupante, è che circa il 36% dei progetti ha subito ritardi nel 2025, mentre appena 6 gigawatt sono entrati in funzione lo scorso anno. La causa principale non è la burocrazia, né la mancanza di capitali; è l’accesso all’energia. Fino al 50% dei progetti annunciati rischia di slittare, un numero che dovrebbe essere inciso nei comitati di investimento prima ancora di discutere di LLM o agenti autonomi.
Questa tensione tra domanda e offerta energetica sta già producendo effetti a cascata. Le grandi aziende tecnologiche, da Google a Meta, stanno progressivamente abbandonando l’idea di affidarsi esclusivamente alla rete elettrica pubblica. Non si tratta di una scelta ideologica, ma di una necessità operativa. La costruzione di data center alimentati da sistemi ibridi, che combinano connessione alla rete e produzione onsite, sta diventando la norma per i progetti più grandi. Meno di un quarto dei data center con una fonte energetica identificata utilizza oggi modelli onsite o ibridi, ma questi rappresentano già il 44% della capacità totale, segno che la scala impone un cambio di paradigma.
Il caso di Google in Minnesota è emblematico, quasi didattico. L’azienda ha progettato un data center che integra energia eolica e solare con una batteria da 30 gigawattora sviluppata da Form Energy, una tecnologia che promette fino a 100 ore di accumulo. In parallelo, ha negoziato con Xcel Energy una struttura tariffaria ad hoc, trasformando di fatto il rapporto con l’utility in una partnership strategica. È un modello che ridefinisce il confine tra tecnologia e infrastruttura, e che rende evidente come il vantaggio competitivo si stia spostando dalla capacità di addestrare modelli alla capacità di alimentarli.
Nel frattempo, il mercato delle batterie sta vivendo una crescita quasi silenziosa ma decisiva. Negli Stati Uniti, si prevede che la capacità di storage raggiunga i 65 gigawatt entro la fine dell’anno, una cifra che, se confrontata con i ritmi europei, evidenzia un gap strutturale. Form Energy stessa sta cercando di capitalizzare questo momento con un round da 500 milioni di dollari in vista di una possibile IPO. Non è difficile intuire dove si stia spostando l’attenzione degli investitori più sofisticati.
Parallelamente, una nuova generazione di startup sta emergendo per affrontare un problema spesso ignorato: la gestione del flusso di elettroni. Aziende come Amperesand, DG Matrix e Heron Power stanno sviluppando tecnologie di conversione energetica più efficienti, mentre player come Camus, GridBeyond e Texture costruiscono software per ottimizzare la distribuzione dell’energia. È una rivoluzione meno visibile rispetto ai modelli generativi, ma probabilmente più determinante nel medio termine. Senza una gestione intelligente della rete, l’energia prodotta non basta; deve essere orchestrata.
Un elemento quasi ironico, se non fosse così serio, riguarda i trasformatori. Questi dispositivi, basati su tecnologie sviluppate circa 140 anni fa, stanno diventando un collo di bottiglia critico. La loro architettura, fatta di ferro e rame, è affidabile ma ingombrante. Quando i rack dei server raggiungono densità di potenza dell’ordine del megawatt, l’infrastruttura elettrica necessaria può occupare il doppio dello spazio del rack stesso. È qui che entrano in gioco i trasformatori a stato solido, basati su elettronica di potenza al silicio, che promettono maggiore efficienza e flessibilità, anche se a costi iniziali più elevati.
La storia economica suggerisce che questi “dettagli” tecnici sono in realtà i veri punti di leva. Durante la corsa all’oro, come spesso si ricorda con una certa retorica, i profitti maggiori andarono a chi forniva gli strumenti, non a chi cercava oro. Oggi, le batterie e i trasformatori sono le nuove pale e picconi. E, come allora, richiedono meno storytelling e più ingegneria.
Nel contesto italiano, questa dinamica assume contorni quasi paradossali. Il paese discute animatamente di intelligenza artificiale, tra regolamentazioni europee, strategie nazionali e iniziative accademiche, ma ignora sistematicamente il nodo energetico. La rete, gestita da Terna, è già sotto pressione e progettata per un paradigma industriale diverso. L’idea di sostenere un aumento del 175% del consumo energetico dei data center entro il 2030, come stimato da Goldman Sachs, appare più come un esercizio teorico che una possibilità concreta senza investimenti radicali.
La dipendenza energetica dell’Italia, che importa circa il 70% delle sue risorse, complica ulteriormente il quadro. In un mondo in cui l’energia diventa il fattore limitante per l’AI, questa dipendenza si traduce in una perdita di sovranità tecnologica. Come avrebbe probabilmente osservato Enrico Mattei, il controllo delle risorse energetiche è una questione di potere industriale, non solo economico.
Il risultato è che molte aziende italiane ed europee rischiano di trovarsi nella posizione di semplici consumatori di servizi AI sviluppati altrove. I data center più avanzati verranno costruiti dove l’energia è abbondante e a basso costo, spesso fuori dall’Europa meridionale. Questo crea un circolo vizioso: meno infrastrutture locali, meno attrattività per investimenti tecnologici, maggiore dipendenza dall’esterno.
Nel frattempo, anche la politica inizia a percepire il problema, seppur con ritardo. Negli Stati Uniti, l’amministrazione ha iniziato a spingere le aziende tecnologiche a costruire le proprie fonti energetiche o a pagare tariffe più elevate, una mossa che riflette la crescente pressione sulla rete. È una dinamica che potrebbe facilmente replicarsi in Europa, dove le tensioni sui prezzi dell’energia sono già evidenti.
Il punto centrale, che emerge con una certa chiarezza, è che l’intelligenza artificiale non è un settore isolato, ma un moltiplicatore di domanda per infrastrutture esistenti. Ogni token generato, ogni modello addestrato, ogni agente autonomo che promette di rivoluzionare il lavoro ha un costo energetico reale. Ignorarlo significa costruire strategie su fondamenta instabili.
Esiste, tuttavia, una lettura più strategica, quasi opportunistica. Se l’energia è il collo di bottiglia, allora rappresenta anche un hedge naturale contro un eventuale rallentamento dell’AI. Gli investimenti in infrastrutture energetiche, dalle batterie alla gestione della rete, beneficeranno comunque della crescente elettrificazione dell’economia, indipendentemente dal destino specifico dei modelli AI. È una forma di diversificazione che pochi investitori sembrano considerare, troppo impegnati a inseguire l’ultima iterazione di un modello generativo.
In definitiva, la vera ironia di questa fase storica è che l’innovazione più dirompente potrebbe non essere nell’intelligenza artificiale, ma nell’energia che la rende possibile. Una realtà che riporta la tecnologia alle sue radici più concrete, lontano dalle narrazioni astratte e vicino ai vincoli fisici. In Italia, come altrove, chi saprà leggere questo cambio di paradigma avrà un vantaggio significativo. Gli altri continueranno a discutere di AI, mentre qualcuno, altrove, costruisce le centrali che la faranno funzionare.