Il paradosso più divertente è che ci siamo accorti di quanto dipendiamo dai nostri giocattoli digitali solo quando Cloudflare ha deciso di prendersi una pausa non richiesta. Il risultato è stato un silenzio improvviso, quasi teatrale, in cui l’infrastruttura internet ha mostrato quanto sia sottile la distanza tra onnipotenza percepita e fallibilità strutturale. La keyword centrale è Cloudflare outage e le correlate sono infrastruttura internet e centralizzazione digitale, un triangolo concettuale che merita più attenzione di quanta ne riceva quando tutto funziona. La rete globale si è fermata di colpo e con lei si è fermata la nostra capacità di produrre, comunicare, creare contenuti o fingere di essere super efficienti. È curioso notare come molti si siano trovati davanti allo schermo a chiedersi se ricordassero ancora come si scrive un testo senza un assistente virtuale. La risposta non è stata particolarmente rassicurante.
Categoria: Cloud e Data Center Pagina 1 di 4
Cloud, Storage, Software, Data Center
Quando si osserva la curva esponenziale dei consumi energetici dell’intelligenza artificiale, la sensazione è quella di assistere a un gigantesco paradosso moderno in cui la voglia di potenza finisce per scontrarsi con i limiti fisici del pianeta. L’impressione è che la Terra stessa stia diventando una sorta di data center sovraccarico, incapace di offrire la banda energetica necessaria a un’industria che cresce più velocemente della nostra capacità di generare elettricità. Attorno a questa orbita concettuale ruotano altre due espressioni emergenti, energia per l’AI e computazione orbitale, che stanno ridefinendo il dibattito strategico delle grandi compagnie tecnologiche.
L’intelligenza artificiale sta divorando elettroni. La nuova corsa all’oro digitale non è più frenata dai capitali o dai chip, ma dai megawatt. Mentre gli algoritmi riscrivono l’economia globale, gli Stati Uniti si scoprono vulnerabili: una superpotenza tecnologica con un’infrastruttura elettrica da era industriale. Negli ultimi mesi, interi data center costruiti con miliardi di dollari giacciono inattivi, in attesa di un semplice “via” dalla rete. Un caso emblematico è quello di un impianto californiano, a pochi chilometri dal quartier generale di Nvidia, che aspetta da sei anni la connessione alla linea ad alta tensione.
L’intelligenza artificiale non si accontenta più delle GPU. Ora ha fame di tutto, perfino dei dischi. La nuova ondata di investimenti e addestramento di modelli generativi ha scatenato una crisi silenziosa nel mercato dello storage, dove la domanda esplosiva di capacità sta schiacciando la produzione globale di HDD e spingendo i data center a una corsa disperata verso le SSD QLC. Il risultato è un mix esplosivo di carenza, rialzi e isteria logistica che rischia di far impennare i prezzi al dettaglio in pochi mesi.
Quando una società con la portata della Microsoft decide di ridisegnare l’infrastruttura tecnologica globale, non è semplice evoluzione: è salto quantico. Ebbene Microsoft ha appena acceso ciò che chiama una “AI superfactory” una rete di data center interconnessi che ospita “centinaia di migliaia” di GPU NVIDIA, capace di mettere in moto modelli di IA di nuova generazione su scala planetaria.
Il progetto prende forma attraverso il nuovo sito “Fairwater” ad Atlanta (Georgia) che si collega al sito di Wisconsin, e altri nodi della rete Azure, in un’unica infrastruttura federata: l’obiettivo è trattare tutti questi cluster come un supercomputer globale, non come isolati “cloud farm”.
Google ha appena alzato l’asticella dell’intelligenza artificiale privata, e lo ha fatto con un nome che suona quasi come un ossimoro: Private AI Compute. Una piattaforma che promette di unire la potenza dei modelli Gemini nel cloud con la stessa sicurezza che finora era prerogativa dell’elaborazione on-device. In altre parole, Google vuole farci credere che l’AI possa essere allo stesso tempo iperconnessa e completamente privata. Ambizioso, forse anche provocatorio.
Microsoft rimane uno dei protagonisti dominanti nella corsa all’infrastruttura AI, ma le sue decisioni recenti suggeriscono che ha deciso di imprimere un freno selettivo non un arresto totale. La società ha confermato l’impegno a spendere circa 80 miliardi di dollari in infrastrutture AI nel corso del suo anno fiscale 2025, includendo data center e relative componenti infrastrutturali.
Nei confronti dei cancellamenti, Microsoft ha adottato una posizione cauta: in molte comunicazioni dichiara che “potrebbe rallentare o aggiustare l’infrastruttura in alcune aree”, ma che rimane forte l’intenzione di crescita globale.
OpenAI ha firmato un contratto settennale da 38 miliardi di dollari con AWS per assorbire “centinaia di migliaia” di GPU Nvidia nei prossimi anni. Entro fine 2026 tutta la capacità sarà operativa, con margine per espansione nel 2027 e oltre.
Questo significa che OpenAI smette (o quantomeno riduce fortemente) la sua dipendenza esclusiva da Microsoft Azure, superando quel “diritto di prelazione” che Microsoft ancora deteneva. Il legame con Microsoft non scompare: OpenAI ha un nuovo accordo vincolato fino al raggiungimento dell’AGI, e impegni d’acquisto per 250 miliardi di servizi Azure restano sul tavolo.
Quando il futuro diventa mattoncino di silicio
OpenAI ha annunciato che costruirà nel Michigan, in Saline Township, un campus dati da oltre 1 gigawatt come parte dell’espansione Stargate in partnership con Oracle e uno sviluppatore immobiliare, Related Digital. L’obiettivo dichiarato è arrivare combinando questo sito con gli altri già in cantiere a più di 8 GW di capacità distribuiti su sette locazioni statunitensi e a un impegno complessivo che supera i 450 miliardi di dollari nei prossimi tre anni.
Amazon ha acceso i motori del suo nuovo colosso dell’intelligenza artificiale. Project Rainier, annunciato per la prima volta nel dicembre 2024 e ora ufficialmente operativo in Indiana, è un data center da 11 miliardi di dollari che segna una svolta nella corsa ai modelli generativi. L’obiettivo è chiaro: fornire la potenza di calcolo necessaria ad Anthropic, la società di IA generativa dietro Claude, che molti analisti ormai considerano l’unico vero rivale strutturale di OpenAI.
Nel cuore del Tennessee, all’Oak Ridge National Laboratory (ORNL), si sta preparando una rivoluzione digitale che potrebbe ridefinire il futuro dell’intelligenza artificiale e della supercomputazione. AMD, in collaborazione con il Dipartimento dell’Energia degli Stati Uniti (DOE), Hewlett Packard Enterprise (HPE) e Oracle, ha siglato un accordo da 1 miliardo di dollari per sviluppare due supercomputer all’avanguardia: Lux e Discovery. Questi sistemi non sono solo macchine potenti; sono la spina dorsale di un’infrastruttura AI sovrana progettata per accelerare la ricerca scientifica, l’innovazione energetica e la sicurezza nazionale.
Nvidia e Deutsche Telekom stanno per lanciare un progetto da 1 miliardo di euro in Germania, un’infrastruttura mastodontica destinata a diventare il cuore pulsante dell’intelligenza artificiale europea. Secondo quanto riportato da Bloomberg, il nuovo data center sarà realizzato a Monaco e impiegherà circa 10.000 GPU di ultima generazione, il tipo di chip che oggi muove l’intero ecosistema dell’AI generativa. Una cifra che non è solo un investimento tecnologico, ma un messaggio geopolitico: l’Europa non vuole restare spettatrice nella corsa globale all’intelligenza artificiale.

Google ha appena annunciato un passo che sembra quasi una contraddizione in termini: finanziare una centrale a gas con cattura e stoccaggio del carbonio (CCS) per alimentare i propri data center, sostenendo così la crescita dell’intelligenza artificiale ma, allo stesso tempo, cercando di restare “verde”. Il progetto, chiamato Broadwing Energy, sorgerà a Decatur, Illinois, e Google si impegna ad acquistare la maggior parte dell’energia prodotta. Il salto è audace e carico di ambiguità.
Alibaba Group Holding ha appena scosso il mondo dell’intelligenza artificiale e del cloud computing con l’annuncio di Aegaeon, un sistema di pooling computazionale che promette di rivoluzionare il modo in cui le GPU vengono utilizzate per servire modelli di AI su larga scala. Secondo quanto riportato in un paper presentato al 31° Symposium on Operating Systems Principles a Seoul, il nuovo sistema ha permesso di ridurre il numero di GPU Nvidia H20 necessarie per gestire decine di modelli fino a 72 miliardi di parametri da 1.192 a soli 213 unità, un taglio impressionante dell’82 per cento. La beta di Aegaeon è stata testata per oltre tre mesi nel marketplace di modelli di Alibaba Cloud, evidenziando come la gestione delle risorse sia stata tradizionalmente inefficiente.
Un consorzio di investimento che include BlackRock, Global Infrastructure Partners e il fondo MGX di Abu Dhabi ha concluso un accordo da 40 miliardi di dollari per l’acquisizione di uno dei maggiori operatori di data center al mondo, lanciando un’iniziativa volta a sostenere le infrastrutture per l’intelligenza artificiale.

Se Jeff Bezos ha annunciatola scorsa settiman all Italian Tech WeeK l’intenzione di lanciare data center nello spazio, la proposta dei ricercatori cinesi va oltre: immaginano un’infrastruttura satellitare globale condivisa, alimentata dall’intelligenza artificiale, per offrire servizi in tempo reale a tutti gli abitanti della Terra, evitando il sovraffollamento pericoloso dello spazio.
Una delle tendenze più evidenti del mercato infrastrutturale digitale è che la domanda spinta da intelligenza artificiale, elaborazione in cloud e generative AI sta crescendo con velocità che mette sotto pressione la capacità infrastrutturale disponibile. Secondo il report Global Data Center Trends 2025 di CBRE, “demand continues to outpace new supply” nei principali hub mondiali, e il tasso di vacanza medio dei data center è sceso a circa 6,6 %, con strette particolarmente acute nei cluster di potenza e nelle zone core.
Ma cosa significa “domanda che sorpassa capacità” in concreto? Significa che i provider iperscalatori (Microsoft, Amazon, Google, etc.) e i grandi clienti enterprise stanno correndo a prenotare spazi e potenza molto prima che le strutture siano costruite; molti progetti vengono “preleased”cioè venduti in anticipo — e le tempistiche di consegna si estendono oltre il 2027, spesso per vincoli sull’energia, permessi, interconnessioni e forniture.
Chi lavora con l’intelligenza artificiale sa bene che il vero nemico non è la complessità degli algoritmi, ma la giungla del cloud. GPU introvabili, YAML che sembrano scritti in sanscrito, costi che esplodono senza preavviso e cluster Kubernetes che si comportano come teenager capricciosi. È il grande paradosso dell’AI moderna: mentre i modelli diventano sempre più sofisticati, l’infrastruttura che dovrebbe sostenerli diventa un campo minato. È qui che entra in gioco SkyPilot AI, un progetto che sta iniziando a far rumore tra sviluppatori, ricercatori e team DevOps che non ne possono più di combattere ogni giorno contro la burocrazia tecnologica del cloud.
Quando parlo di “trend 2025”, non mi riferisco a vanterie da blog tecnico: intendo tendenze che domineranno budget plurimilionari, evoluzioni che ridefiniranno architetture, responsabilità e vantaggi competitivi. E sì, lo faccio anche con numeri perché senza cifre, è solo narrativa.
La parola chiave rimane mobilità dei workload. Nel 2025, la migrazione “fissa” è morta. Le aziende vedranno la nuvola non come una destinazione ma come un ecosistema fluido: sposteranno carichi da on-prem a cloud, tra cloud diversi, o li modernizzeranno dove già risiedono.
Il cuore pulsante della rete mondiale non è etereo come ci piace immaginarlo. Ogni click, ogni query su ChatGPT o ogni video in streaming brucia elettricità in enormi capannoni metallici che chiamiamo data centre. Quei templi dell’informazione che divorano energia come vecchie locomotive a carbone sono diventati il tallone d’Achille della digitalizzazione. In Cina qualcuno ha deciso di portare la questione a un nuovo livello, o meglio, a una nuova profondità: un pod di server verrà immerso al largo di Shanghai, con la pretesa di trasformare l’oceano nel più grande sistema di raffreddamento gratuito della storia tecnologica.

Ellendale, North Dakota, non è mai stata famosa per i suoi grattacieli. Due motel, un Dollar General, un istituto pentecostale: questo era prima che entrasse in gioco la febbre dell’“AI factory”. Oggi sorgerà una struttura capace di ospitare migliaia di GPU, con costi che si aggirano nella fascia dei miliardi. È un azzardo che sembra scritto da chi crede davvero che l’intelligenza artificiale sia la prossima rivoluzione industriale. Ma il rischio è che Ellendale diventi l’epicentro e non il coronamento di una bolla.
L’intelligenza artificiale senza corpo è già abbastanza spaventosa per molti, ma quella incarnata in robot e macchine autonome tocca corde molto più profonde, quasi primordiali. Alibaba Cloud e Nvidia hanno deciso di cavalcare proprio questa frontiera, annunciando a Hangzhou l’integrazione degli strumenti di embodied AI del gigante statunitense dei semiconduttori nella piattaforma cloud della società cinese. Una partnership che non sorprende nessuno, ma che racconta molto sul futuro che si sta disegnando sotto i nostri occhi, spesso più in fretta di quanto i regolatori possano leggere i documenti che loro stessi producono.
Huawei ha deciso di alzare la posta. Non parliamo di un nuovo smartphone da scaffale, ma di una dichiarazione di guerra tecnologica che arriva da Shanghai con il peso di milioni di transistor. Il protagonista è l’Huawei Atlas 950, la nuova arma che il colosso cinese schiera per dominare la scena del supercomputer AI e trasformare il concetto stesso di potenza computazionale. Siamo di fronte a un momento che definire storico non è un’iperbole, perché ridisegna gli equilibri globali tra Pechino, Silicon Valley e il regno visionario di Elon Musk.
Microsoft Fairwater Wisconsin non è un nome che evoca poesia, ma piuttosto acciaio, cavi sotterranei e flussi di corrente elettrica che potrebbero alimentare una città di medie dimensioni. Il progetto da 3,3 miliardi di dollari in costruzione a Mount Pleasant, con un gemello da 4 miliardi già annunciato, rappresenta la trasformazione della campagna americana in un epicentro di calcolo per l’intelligenza artificiale. Non si tratta più di server farm come quelle che ospitavano il vecchio internet fatto di pagine statiche e banner pubblicitari, qui parliamo di un’infrastruttura concepita per addestrare i modelli AI più complessi del pianeta, a partire da quelli di OpenAI, fino a diventare la spina dorsale delle stesse operazioni Microsoft.
Milano continua a brillare come hub tecnologico, ma questa volta lo fa sotto l’ombra di una colonizzazione digitale. Amazon è pronta a realizzare un doppio data center tra Rho e Pero, con un investimento da oltre 750 milioni di euro, mentre il governo italiano firma il decreto di Via il 10 settembre 2025. Il progetto è dichiarato di interesse strategico nazionale, ma il paradosso è evidente: infrastrutture critiche per la sovranità digitale italiana affidate a un colosso straniero. La procedura di Valutazione di Impatto Ambientale si è chiusa positivamente, ma resta il nodo della dipendenza tecnologica.
Il paradosso è servito. Da una parte il Parlamento italiano che discute con toni solenni un disegno di legge sull’intelligenza artificiale, con la tipica liturgia normativa che somiglia più a un esercizio accademico che a una strategia industriale. Dall’altra parte il Regno Unito che, senza troppe cerimonie, annuncia con NVIDIA e i suoi partner la più massiccia operazione di rollout infrastrutturale AI della sua storia: fino a 120.000 GPU Blackwell Ultra, 11 miliardi di sterline in data center, supercomputer in arrivo e persino un progetto battezzato Stargate UK. Non è un dettaglio, è la fotografia plastica di come due paesi affrontano la cosiddetta AI industrial revolution. Da un lato la politica che si concentra su cornici etiche, dall’altro il capitalismo anglosassone che usa GPU come mattoni per costruire la sovranità digitale.
La notizia arriva come un colpo secco per chi ancora pensa che l’intelligenza artificiale nelle risorse umane sia un lusso futuristico o un gadget costoso. Oracle, gigante con oltre 45 anni di esperienza tecnologica, presenta oggi una nuova generazione di agenti AI integrati nella suite Fusion Cloud HCM, capaci di gestire l’intero ciclo di vita dei dipendenti, dalla selezione al pensionamento, senza alcun costo aggiuntivo per i clienti. Il messaggio è chiaro: l’AI non è più un’opzione, ma una componente intrinseca di qualsiasi strategia HR moderna.
Microsoft ha dichiarato che investirà $30 miliardi (≈ £22 miliardi) nel Regno Unito nel periodo 2025-2028 per potenziare infrastruttura AI e operazioni correnti. (vedi The Official Microsoft Blog)
Di questi, circa $15 miliardi sono destinati a capital expenditures (“capex”) per costruire infrastruttura cloud/AI, in particolare un supercomputer con oltre 23.000 GPU NVIDIA, in partnership con la società britannica Nscale.
Il resto (gli altri ~$15 miliardi) serve a sostenere le operazioni correnti nel Regno Unito: forza lavoro (~6.000 dipendenti), data centre esistenti, ricerca, sviluppo, supporto clienti, e attività varie distribuite sul territorio.
Il mondo dell’intelligenza artificiale sta vivendo una fase di accelerazione vertiginosa, con hardware specializzato che definisce la capacità reale di un modello di incidere sul mercato. Parliamo di GPU e TPU, non di semplici acceleratori, ma di macchine che decidono chi sopravvive nel panorama delle grandi LLM. Meta con Llama4 e DeepSeek ha dimostrato quanto il deployment su infrastrutture di Google Cloud non sia più un’opzione sperimentale ma uno standard riproducibile, benchmarkabile e, soprattutto, economicamente misurabile.
Deploying Llama4 e DeepSeek sui cosiddetti AI Hypercomputer di Google Cloud è un esercizio di precisione chirurgica. Non basta avere una GPU A3 o un TPU Trillium, serve orchestrare cluster multi-host, convertire checkpoint dei modelli, gestire la logistica della memoria distribuita e ottimizzare inference con motori come JetStream e MaxText. Il bello è che Google pubblica ricette open source per riprodurre tutto, quasi un invito a fare benchmarking casalingo, senza dover reinventare la ruota. Chi ha provato MoE, Mixture of Experts, sa che la complessità aumenta esponenzialmente ma anche l’efficienza di inferenza se gestita correttamente. Pathways diventa la bacchetta magica per orchestrare distribuzioni massive, e non parlo solo di numeri ma di gestione intelligente delle pipeline.
La geopolitica dell’intelligenza artificiale si è trasformata in una questione di megawatt e metri quadri di cemento raffreddato a liquido. Non si parla più di algoritmi e modelli come semplice leva competitiva, ma di chi possiede i data center UK più potenti e vicini al cuore finanziario europeo. Ed è qui che entrano in scena Sam Altman e Jensen Huang, rispettivamente volto e regista di due colossi come OpenAI e Nvidia, pronti a promettere miliardi di dollari di investimenti nel Regno Unito. Una mossa che arriva non a caso in sincronia con la visita di Donald Trump, trasformando Londra e dintorni nel palcoscenico preferito per dimostrare potenza tecnologica e influenza politica.
Nvidia cloud. Suona bene, quasi come una dichiarazione di guerra, e infatti per un attimo sembrava che Jensen Huang fosse pronto a sfidare Jeff Bezos sul suo stesso terreno. Il progetto DGX Cloud era stato presentato come l’alternativa premium, l’oasi GPU-centrica dentro l’arida prateria dei cloud generalisti. Ma la realtà, come sempre, è meno poetica. Nvidia ha deciso di tirare il freno a mano. Non che chiuda il baraccone, sia chiaro, ma smette di fare la concorrenza frontale ad AWS e ai suoi cugini Microsoft e Google.
Una ritirata elegante, raccontata come “scelta strategica di collaborazione”. Tradotto dal gergo corporate: abbiamo visto che stava diventando un suicidio.Il motivo è quasi banale. Nvidia vive vendendo i suoi chip a quelli che avrebbe dovuto combattere. AWS, Microsoft Azure, Google Cloud. Non semplici clienti, ma clienti colossali che comprano in blocco l’intero arsenale di GPU H100 e presto Blackwell.
Fare la concorrenza a chi ti paga i conti significa mordere la mano che ti nutre. Huang è spavaldo, ma non stupido. Meglio ammorbidire il gioco, vendere tonnellate di silicio e lasciare che siano gli altri a sobbarcarsi il lavoro sporco di gestire data center, SLA e clienti insoddisfatti alle tre di notte.
La notizia è semplice ma distruttiva per le vecchie abitudini del mercato tecnologico: OpenAI avrebbe firmato un accordo con Oracle per acquistare 300 miliardi di dollari in potenza di calcolo su un orizzonte di circa cinque anni, uno degli acquisti cloud più vasti mai registrati su scala industriale. Questo non è un esercizio di iperbole finanziaria, ma la costruzione concreta di una dipendenza infrastrutturale che rimodella rapporti di forza, dinamiche di costo e leve geopolitiche intorno all’intelligenza artificiale.
Questo accordo si innesta dentro un progetto più ampio che ormai ha un nome quasi mitologico: Project Stargate, la scommessa di OpenAI, Oracle e altri partner per costruire nuove capacità di data center che richiederanno fino a 4.5 gigawatt di potenza. La cifra è reale e impressionante, perché 4.5 gigawatt significano impianti su scala industriale che non si installano in un garage ma si progettano con ingegneria pesante, accordi energetici e permessi politici. Il comunicato congiunto e i documenti pubblici dell’iniziativa lo confermano.
Quando Nvidia pubblica un bilancio che fa girare la testa agli investitori, non stiamo parlando di numeri da “cresciuto un po’”. Stiamo parlando di cifre che riscrivono la geografia economica dell’intelligenza artificiale. Jensen Huang, CEO della società, ha lanciato un’indicazione chiara: un singolo data center AI da un gigawatt costerà circa 50 miliardi di dollari. Di quei 50 miliardi, 35 miliardi finiranno nelle casse di Nvidia sotto forma di hardware, lasciando il resto per sistemi complementari. Non sono più i classici megawatt che si spostano con calma nei bilanci aziendali; qui parliamo di gigawatt, di super-fabbriche AI che potrebbero moltiplicare i costi e, ovviamente, i profitti di Nvidia.
OpenAI non sta giocando piccolo. Bloomberg ha riportato che l’azienda sta esplorando partnership in India per costruire un data center da un gigawatt e allo stesso tempo programma strutture simili negli Stati Uniti e in altre regioni globali. Tradotto in soldoni, se le stime di Nvidia reggono, il piano di OpenAI potrebbe tradursi in centinaia di miliardi di dollari destinati all’infrastruttura AI. Non è fantascienza, è capitalismo su scala industriale spinto dall’intelligenza artificiale.
La scena è questa: un titolo poco noto come Nebius, capitalizzazione di mercato di circa 15 miliardi di dollari, annuncia che affitterà GPU Nvidia a Microsoft con un contratto pluriennale da 17,4 miliardi fino al 2031. Le azioni schizzano del 40% nell’after hours, gli investitori esultano e il settore dei data center AI prende nota. Non è soltanto la storia di un accordo, è la dimostrazione plastica di come si stia ridisegnando la geografia del potere tecnologico. Microsoft non compra, Microsoft affitta. Scarica il rischio, come fa da tempo con CoreWeave, e mette Nebius in prima fila nella corsa globale alle GPU.
I data center non sono solo i pilastri della trasformazione digitale: se integrati con il sistema energetico, possono diventare alleati nella decarbonizzazione delle città. È questa la chiave di lettura che Renato Mazzoncini, Amministratore Delegato di A2A, ha proposto al Forum TEHA di Cernobbio, dove è stato presentato uno studio sul ruolo strategico di queste infrastrutture in Italia.
I data center non sono più soltanto “fabbriche di bit”: se guidati da una visione strategica, possono diventare leve di competitività, occupazione e sostenibilità per l’Italia. È quanto emerge dal Position Paper “L’Italia dei data center. Energia, efficienza, sostenibilità per la transizione digitale”, presentato al Forum di Cernobbio da TEHA Group in collaborazione con A2A. Secondo lo studio, lo sviluppo del settore potrebbe contribuire dal 6% al 15% della crescita annuale del PIL nazionale, abilitando fino a 150.000 nuovi posti di lavoro tra diretti, indiretti e indotti. Numeri che confermano come i data center siano ormai infrastrutture strategiche, indispensabili per sostenere la diffusione di AI, IoT e cloud computing.
L’industria tecnologica statunitense è stata messa “in allerta” dalla NAACP, una delle principali organizzazioni per i diritti civili negli Stati Uniti, che ha lanciato un appello alle comunità locali affinché chiedano maggiore responsabilità alle aziende che costruiscono nuovi data center. La domanda di elettricità negli Stati Uniti sta crescendo per la prima volta in quasi due decenni, in gran parte a causa della costruzione di massicci data center destinati a supportare i progressi nell’intelligenza artificiale. Le utility e alcune aziende tecnologiche stanno sempre più soddisfacendo questa domanda con combustibili fossili, peggiorando la qualità dell’aria e aggravando la crisi climatica, spingendo la NAACP a emettere “principi guida” per aiutare i membri delle comunità locali a opporsi.
Chi grida all’apocalisse energetica dei data center in Italia punta più al palcoscenico che ai bilanci. C’è chi sventola scenari da decine di gigawatt come se l’intera dorsale elettrica nazionale fosse a disposizione di capannoni ronzanti piazzati da Bolzano a Pachino. La realtà, spietata e poco glamour, è che il mercato digitale italiano cresce a passo breve, l’accesso alla rete non è una formalità e la matematica finanziaria non perdona. Gli scenari sereni fanno vendere meno clic, ma aiutano a non sbagliare investimenti. Secondo le stime più solide sul mercato digitale tracciate da Anitec-Assinform, l’Italia ha chiuso il 2024 con 81,6 miliardi di euro e una crescita del 3,7 per cento, con proiezioni nell’ordine del 3,3-4 per cento medio annuo nei prossimi anni. Un’espansione reale, ma ben lontana dal raddoppio che servirebbe a giustificare una corsa a carico base di dieci gigawatt dedicati solo all’infrastruttura di calcolo. Non è un’opinione, è un denominatore.
Un fatto scomodo per i profeti dei 50 gigawatt è che il parco installato italiano non è una nebulosa insondabile. La fotografia 2024 più citata dagli operatori parla di circa 513 megawatt di potenza IT attiva nel Paese, di cui 238 nell’area milanese, con pipeline in crescita ma tutt’altro che esponenziale. È la dimensione di un mercato che funziona, non di un meteorite in rotta di collisione. Per chi si nutre di iperboli, è una doccia fredda. Per chi deve allocare capitale, è la base su cui costruire casi d’uso sostenibili.
