Chi grida all’apocalisse energetica dei data center in Italia punta più al palcoscenico che ai bilanci. C’è chi sventola scenari da decine di gigawatt come se l’intera dorsale elettrica nazionale fosse a disposizione di capannoni ronzanti piazzati da Bolzano a Pachino. La realtà, spietata e poco glamour, è che il mercato digitale italiano cresce a passo breve, l’accesso alla rete non è una formalità e la matematica finanziaria non perdona. Gli scenari sereni fanno vendere meno clic, ma aiutano a non sbagliare investimenti. Secondo le stime più solide sul mercato digitale tracciate da Anitec-Assinform, l’Italia ha chiuso il 2024 con 81,6 miliardi di euro e una crescita del 3,7 per cento, con proiezioni nell’ordine del 3,3-4 per cento medio annuo nei prossimi anni. Un’espansione reale, ma ben lontana dal raddoppio che servirebbe a giustificare una corsa a carico base di dieci gigawatt dedicati solo all’infrastruttura di calcolo. Non è un’opinione, è un denominatore.
Un fatto scomodo per i profeti dei 50 gigawatt è che il parco installato italiano non è una nebulosa insondabile. La fotografia 2024 più citata dagli operatori parla di circa 513 megawatt di potenza IT attiva nel Paese, di cui 238 nell’area milanese, con pipeline in crescita ma tutt’altro che esponenziale. È la dimensione di un mercato che funziona, non di un meteorite in rotta di collisione. Per chi si nutre di iperboli, è una doccia fredda. Per chi deve allocare capitale, è la base su cui costruire casi d’uso sostenibili.
Fa sorridere, in modo amaro, la leggerezza con cui vengono brandite cifre a due zeri davanti al simbolo dei gigawatt. A dieci gigawatt medi e continui di potenza assorbita, il conto della serva su prezzi all’ingrosso italiani attorno ai 110 euro per megawattora suggerisce una bolletta mensile nell’ordine degli ottocento milioni di euro. Con prezzi a 90 euro si scende verso seicento cinquanta milioni, a 170 euro si sale sopra il miliardo. La forbice esiste, ma nessuna ipotesi seria porta a uno o più miliardi e settecento milioni al mese come baseline. La contabilità è semplice: dieci gigawatt per settecentoventi ore fanno 7,2 terawattora al mese, moltiplicati per il PUN medio e non per la fantasia. La differenza rispetto alla narrativa? I bilanci tornano subito a parlare.
Il nodo vero non è negare la crescita, ma riportarla nella fisica del sistema. Una traiettoria ragionevole al 2030 porta l’Italia tra 1,4 e 2 gigawatt di potenza IT installata, che non equivalgono a 2 gigawatt medi assorbiti 24 ore su 24. Se assumo un fattore di utilizzo dell’IT al 60 per cento e un PUE a 1,3, l’assorbimento medio si assesta intorno a 1,56 gigawatt, cioè circa 13,7 terawattora l’anno. È il modo corretto per passare dagli slogan ai wattora. Sul 2040, l’ipotesi di 5 gigawatt IT è impegnativa ma non fantascienza se la domanda reale lo sostiene e se la rete regge. Un Paese che consuma intorno a trecento terawattora l’anno non crolla per trenta in più, ma chiede in cambio programmazione e disciplina industriale. La rete, per inciso, è un collo di bottiglia anche quando non fa notizia.
Serve guardare dove finiscono i progetti quando escono dai comunicati stampa e bussano alla porta di Terna. A marzo 2025 i tecnici avevano già sul tavolo richieste di connessione nell’ordine di decine di gigawatt riconducibili a data center e nuovi carichi energivori, con un flusso in rapida crescita in primavera e inizio estate. Il numero ha fatto inorridire qualcuno e gongolare altri, ma un’istanza di connessione non è un megawatt installato, è un’opzione. Gli stessi documenti di sistema ricordano che il 2024 si è chiuso con un aumento della domanda elettrica di appena l’1,6 per cento. Chi ha negoziato capacità in vita sua sa distinguere la pipeline dal fatturato, la richiesta dalla messa in esercizio. In breve, la montagna di carta non si trasformerà in cinquanta gigawatt in esercizio.
Il legislatore ha capito, almeno in parte, che la sburocratizzazione è condizione necessaria ma non sufficiente. Il Decreto Energia 2025 ha introdotto il PAUR, un procedimento autorizzativo unico che distingue la competenza tra Regioni e Ministero dell’Ambiente e della Sicurezza Energetica a seconda della taglia dell’impianto, con soglia intorno ai 300 MVA. È una corsia preferenziale su carta, ma la vera moneta rimangono i punti di consegna e la potenza disponibile in rete, governati da Terna e dai distributori. La riforma dell’iter autorizzativo riduce l’attrito amministrativo, non crea kilovoltampere dal nulla. È su quel piano, non nella gazzetta, che si decideranno i progetti reali.
Merita un capitolo a parte il feticcio del PUE pari a 1,1 come chiave per il paradiso ESG. I grandi campus che inseguono PUE bassissimi con sistemi evaporativi pagano in acqua ciò che risparmiano in kilowattora. La letteratura più citata riporta WUE tipiche intorno a 1,8 litri per kilowattora per impianti evaporativi, con stime operative di due milioni di litri al giorno per un iperscalare da cento megawatt. È un ordine di grandezza, non una riga spaccata al millilitro, ma sposta la conversazione dal marketing al territorio. Le alternative esistono, dai dry cooler al direct-to-chip, e consentono WUE molto basse a costo di PUE più alti nell’ordine di 1,3-1,4. La fisica non fa sconti: si scambia acqua con elettricità, manutenzione con efficienza, CAPEX con OPEX. Chi pianifica deve scrivere la propria frontiera di Pareto, non quella del vicino.
La buona notizia è che alcuni operatori stanno alzando l’asticella tecnologica, dimostrando che l’equazione si può risolvere in modo diverso dal solito. Non parlo di brochure, parlo di impianti che soffiano aria calda nelle case invece che nel cielo. A Milano è in corso il primo progetto industriale italiano di recupero di calore da data center per alimentare il teleriscaldamento, con A2A, Retelit e DBA Group impegnati a portare in rete il calore residuo di un sito da 3,2 megawatt di potenza, operativo con messa a regime stimata per il 2026 e capacità di servire oltre mille famiglie. A Brescia A2A ha già inaugurato un data center raffreddato a liquido collegato al teleriscaldamento, con un potenziale di sedici gigawattora termici all’anno e temperature di uscita fino a 65 gradi, cioè calore davvero utile. Non è teoria, è ingegneria che fa goal.
Guardando oltre confine, ci si accorge che la trasformazione in atto non è una mania italiana. In Danimarca Microsoft alimenterà la rete di teleriscaldamento a Høje-Taastrup con il calore in eccesso del data center, con prime consegne attese nella stagione 2025-2026 e un’utenza potenziale di migliaia di abitazioni, grazie anche a una cornice regolatoria che proprio nel 2025 elimina il tetto di prezzo sul calore di scarto per abilitare più progetti. La Germania, da parte sua, ha introdotto obblighi crescenti di efficienza energetica e piani di recupero del calore per i nuovi data center nella legge nazionale sull’efficienza energetica, spingendo di fatto gli operatori verso l’integrazione con reti di calore urbane. Quando qualcuno racconta che il calore di scarto è un gadget, può sempre prenotare un volo per Copenaghen e farsi spiegare la differenza tra un PDF e un radiatore acceso.
Non basta però scambiare calore per dire di essere diventati infrastruttura matura. Il prossimo salto è elettrico e riguarda la qualità con cui questi carichi si presentano alla rete. Se i data center vogliono aggiungere gigawatt di domanda in sistemi già tirati, dovranno uscire dal ruolo di consumatori passivi e offrire servizi di rete. Alberta fa scuola con requisiti tecnici in consultazione che vanno dalla fault ride-through ai limiti di ramp rate, fino a funzionalità di frequenza e tensione codificate per i grandi carichi con elettronica di potenza. È la strada giusta anche in Italia, perché un nodo da 300 megawatt che si spegne o si accende senza preavviso non è un cliente, è un problema sistemico. Agganciare UPS e BESS ai mercati dei servizi ancillari, modulare per seguire i picchi, programmare il carico in funzione della produzione rinnovabile e del prezzo nodale non è fantascienza, è la normale evoluzione di un’infrastruttura che pesa.
Per chi si preoccupa dell’acqua, il punto è evitare slogan e guardare al contesto. Il consumo idrico diretto varia di un ordine di grandezza a seconda della tecnologia, del clima e dell’uso di acqua riciclata. C’è chi in Europa mostra WUE di 0,2 litri per kilowattora in climi favorevoli e con design ottimizzati, c’è chi negli Stati Uniti stima medie operative di due milioni di litri al giorno su un campus da cento megawatt. Entrambe le cifre sono vere una volta dichiarate le condizioni al contorno. Il regolatore può aiutare con obiettivi progressivi sulla WUE in aree idricamente stressate e con preferenza per acque non potabili, mentre i capitolati possono codificare il passaggio a soluzioni a liquido diretto che, al crescere della densità termica dei rack, diventano non solo efficienti ma inevitabili. Il dibattito serio non oppone aria ed acqua come se fossimo nel Novecento, discute di gradi e pressioni, salinità e cicli di concentrazione, coefficienti di performance e ore equivalenti.
Una riflessione va fatta anche sul lato costi, quello che innesca o frena tutto il resto. Se la crescita del mercato digitale italiano resta su un 3-4 per cento annuo, la capacità di assorbire OPEX energetici miliardari è per definizione limitata. L’argomento secondo cui i giganti del cloud possono permettersi qualsiasi bolletta salta su due righe: i margini lordi non sono un bancomat infinito, e la domanda finale è straordinariamente elastica al prezzo quando si tratta di workload non core o spostabili su regioni meno care. In altre parole, se il prezzo marginale di un’istanza GPU in Italia incorpora costi di rete e di energia che non hanno equivalenti a Francoforte o Madrid, i carichi itineranti saluteranno. La concorrenza non perdona.
Il vero perimetro strategico ha tre lati. Primo, connettere progetti che portino lavoro e resilienza senza creare distorsioni competitive, con criteri trasparenti di accesso alla rete, priorità alle aree con capacità disponibile e obblighi espliciti di flessibilità del carico sopra certe soglie. Secondo, convertire il calore di scarto in un asset, agganciandolo al teleriscaldamento dove esiste e promuovendo cluster in prossimità delle reti, perché un megawatt termico consegnato in km zero vale più di un PUE da copertina. Terzo, costruire una filiera industriale e professionale che non rincorra il flux dell’AI ma lo cavalchi, sviluppando competenze su raffreddamento a liquido, progettazione elettrica avanzata, elettrochimica dei BESS e integrazione con i mercati dei servizi di rete. La buona notizia è che i primi mattoni sono stati posati in Lombardia e che il mondo corre nella stessa direzione, senza attendere applausi.
Chi continua a ripetere che basta dire cloud per costruire catene del valore ignora l’asimmetria tra titoli e cavi d’alta tensione. Un conto è annunciare mezzo gigawatt in conferenza stampa, altro è negoziare connessioni, pagare i trasformatori, progettare la selettività delle protezioni, garantire il ride-through e firmare il PPA quando il PUN ti guarda negli occhi. Non costruiremo cinquanta gigawatt, non perché ci manchi ambizione, ma perché le equazioni economiche e di rete non lo consentono. Costruiremo quello che il sistema può assorbire, se saremo bravi a trasformare i data center da pesi morti a nodi attivi e termicamente utili. È l’unico modo per evitare il vero rischio, che non è il blackout, ma la marginalità competitiva. In un’Europa dove Irlanda, Germania e Spagna hanno già messo in fila miliardi di investimenti e stanno armonizzando regole e incentivi, il lusso di aspettare non è a catalogo.
Vale la pena smontare tre luoghi comuni prima di chiudere il taccuino. Primo, i data center non innescheranno uno shock idrico nazionale, ma i progetti evaporativi in aree stressate non sono un dettaglio e richiedono criteri, misure e tariffe che rendano l’acqua un costo pieno, non un’esternalità. Secondo, la retorica del PUE come unica religione produce l’effetto opposto, perché ignora che un PUE da 1,15 con due milioni di litri al giorno non è meglio, è solo diverso da un 1,35 con WUE quasi zero. Terzo, la dignità industriale di questa infrastruttura passa da un patto con la rete: niente gigawatt di carico senza responsabilità simmetriche di stabilizzazione. Un operatore serio non chiede privilegi, firma SLA bilaterali con il sistema elettrico e si fa pagare anche per i servizi che eroga. Alberta non è dietro l’angolo, ma il calendario energetico italiano non aspetta.
A conti fatti, l’Italia non rischia di affogare nei litri d’acqua né di cedere al primo picco di domanda elettrica attribuibile ai data center. Rischia di perdere il treno degli investimenti di qualità perché confonde la velocità con la fretta e la riforma dei processi con la disponibilità fisica di rete. Il futuro non lo scrive chi annuncia 50 gigawatt, lo scrive chi connette 500 megawatt con PUE onesto, WUE trasparente, recupero di calore funzionante e servizi ancillari remunerati. È una ricetta meno spettacolare, ma genera valore vero, migliora i conti delle utility e scalda le case in inverno con ciò che oggi buttiamo nell’aria. Si chiama politica industriale del digitale. Gli altri l’hanno già capita, noi possiamo ancora farcela, a patto di smettere di confondere le richieste di connessione con centrali operative e le promesse con i trasformatori in cabina. Non serve un miracolo, serve ricordare che il mercato digitale cresce al ritmo di un 3-4 per cento all’anno, che l’energia costa quanto dice il PUN e che i kilowattora che contano sono quelli che si misurano, non quelli che si twittano.