
La costruzione dei data center pianificati non rallenta, anzi accelera come una valanga che prende forma mentre nessuno guarda nella direzione giusta. Il nuovo rapporto BloombergNEF ha fatto emergere un dettaglio che molti fingevano di non vedere: il settore richiederà 2,7 volte l’attuale domanda elettrica entro il prossimo decennio. Un numero che non serve nemmeno impacchettare con grafici patinati per capire quanto sia destabilizzante. Oggi i data center consumano circa 40 gigawatt. Nel 2035 arriveranno a 106 gigawatt. Il salto non è una semplice crescita, è un ribaltamento strutturale che trasforma l’energia in un fattore strategico tanto quanto il silicio o il capitale di rischio.
La narrazione ufficiale racconta che la maggior parte dell’espansione avverrà lontano dalle metropoli. Una volta i data center erano considerati animali urbani. Avevano bisogno di connessioni densissime, latenza ridotta, vicinanza ai clienti. Adesso la geografia cambia perché gli spazi scarseggiano e le dimensioni dei nuovi complessi stanno diventando difficili da collocare. La media delle strutture in arrivo consumerà ben oltre 100 megawatt. Un quarto supererà i 500 megawatt e alcune punteranno a oltrepassare un intero gigawatt di domanda. Si tratta di centrali elettriche al contrario, con i rack di GPU al posto delle turbine. Un vecchio ingegnere elettrico con cui parlai anni fa avrebbe detto: “Quando superi il mezzo gigawatt, non stai costruendo un data center. Stai spostando la rete elettrica”.
Il rapporto evidenzia un dettaglio che i CEO amano ignoralmente dimenticare, forse perché rovina le slide degli investitori. L’utilizzo medio dei data center crescerà dal 59 percento al 69 percento mentre i carichi di AI training e inference saliranno a quasi il 40 percento di tutta la capacità di calcolo. Questo dato è il cuore nascosto di tutta la vicenda. La crescita dell’intelligenza artificiale non è lineare, non è ordinata, non è sostenibile nelle logiche tradizionali dell’infrastruttura energetica. È una spirale di domanda alimentata da modelli sempre più grandi, update continui, deployment distribuiti e un mercato che tratta l’elaborazione come se fosse ossigeno. Non sorprende che, per la prima volta nella storia moderna, gli investimenti globali in data center abbiano raggiunto 580 miliardi di dollari superando ciò che il mondo spende per trovare nuovi giacimenti di petrolio. Una citazione interna al settore circola da mesi: “L’AI non sta consumando energia, sta consumando il futuro”.
Un altro punto fondamentale del rapporto è la drastica revisione al rialzo rispetto a pochi mesi fa. Il documento di aprile sembrava già aggressivo. Adesso appare timido come un promemoria scolastico. Il cambiamento deriva dall’esplosione dei progetti nelle prime fasi di pianificazione. Il backlog è aumentato più del doppio tra l’inizio del 2024 e l’inizio del 2025. Il dato colpisce soprattutto perché i progetti early stage sono quelli che influenzano la parte finale delle previsioni, considerando che servono in media sette anni affinché una struttura diventi operativa. Il fenomeno suggerisce un effetto valanga sulle reti di trasmissione, perché il pipeline pianificato obbligherà a ristrutturare la distribuzione dell’elettricità con ritmi mai visti nella storia delle utility moderne.
La geografia degli Stati Uniti si sta ridisegnando attorno a questa espansione. Le aree più coinvolte sono Virginia, Pennsylvania, Ohio, Illinois e New Jersey. Tutti entro la giurisdizione del PJM Interconnection, l’organismo che gestisce la rete elettrica regionale coprendo anche Delaware, West Virginia e alcune zone di Kentucky e North Carolina. Texas, sospinto dal suo ecosistema Ercot, vive un’ondata simile. Questa concentrazione non è un caso. Dipende dalla disponibilità di terreni relativamente ampi, dalla capacità residua delle reti, dai poli industriali e dagli incentivi locali. È un ritorno dei distretti energetici, ma vestiti con l’estetica minimalista degli hyperscaler.
La tensione però non manca. Il PJM Interconnection è già nel mirino di Monitoring Analytics, il suo osservatore indipendente che ha presentato un reclamo alla FERC. La critica è semplice e feroce: PJM avrebbe il potere e il dovere di autorizzare nuovi collegamenti solo quando esiste capacità sufficiente per garantire la stabilità della rete. Il gruppo sostiene che il gestore dovrebbe introdurre una coda di carico per disciplinare l’ingresso delle nuove installazioni. La frase più pungente del rapporto è quasi una stilettata: “PJM ha l’autorità di proteggere la rete e non lo sta facendo”. La battaglia regolatoria potrebbe trasformarsi in un caso di scuola su come bilanciare innovazione e infrastrutture in un mercato che non conosce pause.
Il paradosso è che i data center vengono anche accusati di guidare l’aumento attuale dei prezzi dell’elettricità nella regione. È un’accusa che nessun operatore vuole sentire ma che molti erano pronti a lanciare. Il problema è strutturale. Quando una singola azienda chiede centinaia di megawatt in pochi anni, il sistema elettrico non può reagire con eleganza. I costi di rinforzo ricadono su tutti gli utenti, e la dinamica tariffaria diventa inevitabilmente più pesante. Il risultato è che il settore dell’AI sta creando un mercato dell’energia sempre più simile a una corsa all’oro, con gli hyperscaler nel ruolo dei nuovi cercatori e i regolatori nel ruolo dei pochi sceriffi rimasti.
La keyword principale che emerge da tutto questo è data center. Le correlate che definiscono l’architettura semantica sono consumo energetico e intelligenza artificiale. Sono i nodi attorno ai quali si sta costruendo la narrativa globale. La crescita esplosiva degli hyperscaler non è più una questione tecnica. È un fatto geopolitico, economico, culturale. La transizione digitale non è più virtuale, è terribilmente fisica. Richiede terreni, metalli, trasformatori, linee ad alta tensione. Richiede una visione infrastrutturale che molti paesi non hanno ancora maturato. La nuova generazione di investimenti in AI rischia di essere limitata non dalla tecnologia, ma dai cavi elettrici che attraversano silenziosamente le campagne.
Si potrebbe leggere tutto questo come una forma moderna di industrializzazione. I data center diventano le nuove fabbriche a ciclo continuo. Non producono oggetti. Producono calcolo. E il calcolo è diventato la valuta emotiva dell’economia globale. Gli investitori parlano di training compute come se fosse la nuova misura del PIL. Le aziende misurano il vantaggio competitivo in flops invece che in margini. La capacità elettrica, improvvisamente, appare come il vero potere contrattuale del ventunesimo secolo.
Qualcuno potrebbe ridere all’idea che la prossima crisi globale possa nascere non dal petrolio, non dai semiconduttori, ma dalla disponibilità di megawatt. La storia, però, ha una sua ironia ricorrente. Ogni rivoluzione tecnologica si è infranta contro il limite di una risorsa fisica sottovalutata. Questa volta la risorsa è l’elettricità. E chi controllerà l’elettricità controllerà la traiettoria dell’intelligenza artificiale e dell’economia mondiale. Chi pensa che questa sia solo una questione americana farebbe bene a ricordare che l’infrastruttura dell’AI è globale, e la competizione per costruire il prossimo gigawatt è già iniziata da tempo.
Notizia https://about.bnef.com/insights/clean-energy/ai-and-the-power-grid-where-the-rubber-meets-the-road