Il Maine ha deciso di premere il pulsante di pausa. Le autorità statali hanno approvato una moratoria temporanea sulla costruzione di nuovi data center di grandi dimensioni, diventando il primo Stato americano a varare una misura del genere contro l’espansione vorace delle infrastrutture per l’intelligenza artificiale. Il disegno di legge LD 307, passato sia alla Camera che al Senato nei giorni scorsi, blocca per ora le autorizzazioni a impianti superiori ai 20 megawatt fino al novembre 2027. Non si tratta di un divieto definitivo, ma di un periodo di riflessione: nel frattempo nascerà un apposito Maine Data Center Coordination Council per studiare gli impatti su rete elettrica, bollette, ambiente e occupazione locale.
Categoria: Cloud e Data Center Pagina 1 di 5
Cloud, Storage, Software, Data Center
La nuova geografia del potere passa dai data center. Non è una metafora particolarmente elegante, ma è terribilmente efficace. Dove una volta si misuravano confini e risorse naturali, oggi si contano megawatt, latenze e capacità computazionale. In questo scenario, l’Italia ha deciso di smettere i panni del mercato periferico e di sedersi al tavolo dei grandi, anche se la sedia scricchiola ancora un po’.
Capita sempre più spesso che le idee più radicali nascano da un problema molto concreto: dove mettere tutta questa intelligenza artificiale che continua a crescere senza chiedere permesso. Dopo l’iniziativa giapponese che punta a trasformare imponenti car-carrier in data center galleggianti, la risposta di Aikido Technologies è tanto semplice quanto audace: sotto il mare, direttamente dentro le fondamenta delle turbine eoliche.
Non si tratta di una suggestione futuristica da conferenza, ma di un progetto presentato in questi primi mesi del 2026 e rilanciato dalla comunità scientifica internazionale. Il principio è lineare, quasi elegante nella sua brutalità ingegneristica: produrre energia e consumarla nello stesso punto, eliminando uno dei grandi colli di bottiglia dell’infrastruttura digitale, ovvero il trasporto.
Per capire perché questa idea stia attirando attenzione, basta guardare ai numeri. I data center negli Stati Uniti hanno consumato 183 terawattora nel 2024, circa il 4% dell’intero fabbisogno nazionale. E la traiettoria è chiara: entro il 2030 quella quota potrebbe più che raddoppiare. Ormai è chiaro che l’AI non sia solo un problema computazionale, ma energetico.
“Plug, baby, plug”. Quando Emmanuel Macron ha pronunciato questa frase durante l’AI Action Summit a Parigi nel febbraio 2025, probabilmente immaginava di accendere una scintilla. Quello che è successo dopo, nel corso dell’ultimo anno, assomiglia più a una corsa all’oro con server al posto dei picconi e data center al posto delle miniere.
Inventare il futuro partendo dai vincoli è una specialità giapponese. Questa volta, però, il risultato ha un sapore quasi cinematografico: vecchie navi cargo che tornano a solcare i mari non per trasportare automobili, ma per alimentare algoritmi. Il progetto firmato da Mitsui O.S.K. Lines e Hitachi punta a trasformare imponenti car-carrier in data center galleggianti dedicati all’intelligenza artificiale, con le prime operazioni previste dal 2027.
La sovranità, nel XXI secolo, non passa più solo da confini fisici o risorse energetiche. Sempre più spesso si nasconde in luoghi meno visibili, come i data center. Quei giganteschi magazzini di server che custodiscono dati, algoritmi e, dettaglio non trascurabile, una buona fetta del potere economico globale. Il punto, qualcuno direbbe il problema, è che, in Europa, queste “centrali del futuro” parlano sempre più spesso con accento americano.
Dublino non è più soltanto la porta d’ingresso europea per le multinazionali della tecnologia, ma un laboratorio a cielo aperto dove si misura il costo reale dell’economia dei dati. Dietro cancelli blindati e sistemi di sicurezza degni di un film di spionaggio, i data center stanno ridisegnando il futuro digitale del continente, mentre sollevano una domanda scomoda: quanto siamo disposti a pagare, in termini energetici e ambientali, per diventare un hub del cloud?
La trasformazione digitale delle forze armate europee non è più una prospettiva futuristica buona per i convegni, ma una realtà concreta che si gioca tra server, algoritmi e una parola sempre più ricorrente: sovranità. In questo scenario si inserisce l’annuncio di OVHcloud, che all’InCyber Forum 2026 ha deciso di accelerare le proprie attività nel settore della difesa, con un approccio che mescola infrastrutture cloud, intelligenza artificiale e un pizzico di pragmatismo europeo.
Nel risiko globale delle infrastrutture digitali, anche l’Italia prova a ritagliarsi un ruolo da protagonista. L’avvio dei lavori del primo data center italiano di CyrusOne a Segrate, nell’area metropolitana di Milano, rappresenta molto più di un semplice investimento immobiliare ad alta densità tecnologica. È il segnale che la partita dei dati, quella vera, si gioca ormai anche qui.
Non bastano buoni modelli per competere nell’intelligenza artificiale. Servono potenza, infrastrutture e, dettaglio non trascurabile, una quantità impressionante di chip. Mistral AI lo ha capito bene e ha deciso di giocare la partita fino in fondo, raccogliendo 830 milioni di dollari in debito per costruire uno dei pilastri della sua strategia: un grande data center vicino Parigi.
La sovranità tecnologica non passa più soltanto da brevetti, startup o algoritmi. Passa, molto più concretamente, da edifici pieni di server, chilometri di fibra ottica e quantità di energia che farebbero impallidire una piccola città. I data center, spesso invisibili al grande pubblico, sono diventati il vero terreno su cui si gioca l’autonomia strategica europea.
D’alta parte, il controllo della capacità computazionale rappresenta oggi un fattore geopolitico comparabile alle infrastrutture energetiche del Novecento. Una definizione che può sembrare enfatica, ma che diventa piuttosto realistica quando si guardano i numeri.
Il futuro del cloud potrebbe avere meno a che fare con le nuvole e molto di più con la meccanica quantistica. Ed è proprio su questo passaggio, tanto silenzioso quanto strategico, che l’Autorità Garante della Concorrenza e del Mercato ha deciso di intervenire aprendo un’indagine conoscitiva destinata a far discutere il settore tecnologico nei prossimi mesi.
Fermare i data center per fermare l’intelligenza artificiale o, almeno, rallentarla. La proposta presentata da Bernie Sanders e Alexandria Ocasio-Cortez negli Stati Uniti ha il sapore di una provocazione politica, ma anche quello di un segnale preciso: la corsa all’AI sta accelerando più velocemente della capacità delle istituzioni di comprenderla e governarla.
OVHcloud scommette sull’Italia: sovranità digitale, AI e datacenter per la partita europea del cloud
Il cloud europeo cerca spazio tra i giganti globali e l’Italia diventa uno dei terreni di gioco più interessanti. La strategia di OVHcloud nel Paese non è solo un’espansione geografica, ma un tassello di una visione più ampia che intreccia tecnologia, geopolitica e autonomia digitale.
Fondata in Francia e cresciuta fino a gestire centinaia di migliaia di server distribuiti su più continenti, OVHcloud rappresenta oggi una delle poche alternative europee credibili ai grandi hyperscaler statunitensi. Una posizione che, nel contesto attuale, vale molto più di una semplice quota di mercato.
Mentre l’intelligenza artificiale ridisegna le priorità industriali e tecnologiche, anche le infrastrutture emergono come protagoniste silenziose ma decisive. Rai Way ha scelto di giocare questa partita con un progetto dalle dimensioni e ambizioni tutt’altro che marginali: un maxi data center alle porte di Roma, destinato a diventare uno dei nodi strategici della trasformazione digitale italiana.
Volendo fare un battuta potremmo dire che nel mondo della tecnologia, quando i problemi diventano troppo grandi per essere risolti a terra, qualcuno inizia seriamente a guardare verso l’alto. E Jeff Bezos sembra aver preso quest’idea alla lettera, con un progetto che promette di spostare una parte significativa dell’infrastruttura dell’intelligenza artificiale direttamente nello spazio.
Il cloud non è più solo infrastruttura, è territorio di scontro. Le grandi alleanze nell’intelligenza artificiale durano quanto basta per diventare scomode, poi iniziano le interpretazioni contrattuali, le sfumature semantiche e, quando serve, anche le minacce legali. Secondo quanto riportato dal Financial Times, Microsoft starebbe valutando un’azione legale contro Amazon e OpenAI per un accordo da circa 50 miliardi di dollari che rischia di incrinare uno dei pilastri più redditizi dell’ecosistema AI: l’esclusiva cloud su Azure.
Il cuore della disputa è semplice da descrivere e molto meno da risolvere. Chi ha davvero il diritto di far girare i modelli di OpenAI e dove?
Quello che è successo negli ultimi anni a livello geopolitico e che continuiamo a vedere con le recenti escalation della crisi in Ucraina prima e quella del Golfo poi, ci ha insegnato a riconoscere alcuni asset fondamentali: porti, gasdotti, rotte commerciali, satelliti e cavi sottomarini sono elementi strutturali e fondamentali dell’architettura economico-politica di un Paese. A questa lista si è aggiunto ora un nuovo protagonista molto meno visibile ma altrettanto cruciale: il data center.
La parola che oggi fa tremare i corridoi di Silicon Valley non è regolazione, né antitrust, né copyright. È moratoria. Tre sillabe che negli Stati Uniti iniziano a circolare con una frequenza sospetta ogni volta che si parla di data center e infrastrutture per l’intelligenza artificiale. New York ha messo nero su bianco ciò che molti governi locali pensano ma raramente osano dire ad alta voce. Fermiamoci. Almeno tre anni. Niente nuovi permessi per costruire o far operare nuovi data center. Un colpo secco al cuore dell’economia dell’AI, proprio mentre Big Tech pianifica investimenti da centinaia di miliardi.
Il fatto interessante non è tanto la proposta in sé, il cui destino legislativo resta incerto, quanto il contesto politico e culturale in cui nasce. New York diventa almeno il sesto stato americano a considerare una pausa strutturata sulla costruzione di nuovi data center. Non un dibattito accademico, non un audit tecnico, ma un freno regolatorio esplicito. In un paese che ha costruito la propria mitologia sull’idea che l’infrastruttura tecnologica sia sempre un bene, sempre urgente, sempre inevitabile, è una piccola rivoluzione semantica prima ancora che normativa.
Jensen Huang non ama le mezze misure. Sabato a Taipei, il CEO di Nvidia ha confermato che l’azienda investirà “una grande quantità di denaro” in OpenAI, probabilmente la cifra più alta mai stanziata dalla società in un’unica iniziativa. Secondo The Information, Nvidia stava trattando un investimento fino a 30 miliardi di dollari per sostenere la raccolta complessiva di OpenAI, fissata a 100 miliardi con una valutazione pre-investimento di 750 miliardi. L’eco di questo impegno va ben oltre la semplice partecipazione azionaria: OpenAI, infatti, affitta enormi quantità di server Nvidia attraverso provider cloud come Microsoft, Amazon e Oracle, rendendo l’investimento un gioco a somma positiva per entrambe le parti. Huang ha sottolineato che OpenAI è “una delle aziende più significative del nostro tempo” e ha sdrammatizzato le tensioni percepite con il team di ChatGPT.
Se l’inverno fosse una lezione di gestione del rischio, Winter Storm Fern la sta consegnando con voti bassissimi. Trentaquattro stati paralizzati, centinaia di migliaia di case al buio, e una lezione sotto forma di bollette che salgono come bolle speculative. La temperatura gelida non è solo un fastidio: è un test in tempo reale della resilienza dei nostri sistemi energetici, già sotto pressione dall’inarrestabile corsa dei data center AI.
Virginia, epicentro dell’hype tecnologico con più server farm per metro quadrato, ha visto il prezzo all’ingrosso dell’elettricità schizzare da circa 200 dollari a 1.800 in un solo giorno. Non è uno scherzo, è lo shock di un sistema che tenta di servire contemporaneamente riscaldamenti domestici, fabbriche elettrificate e modelli di intelligenza artificiale che bramano energia come adolescenti in vacanza scolastica. Dominion Energy, il più grande fornitore locale, ha fatto sapere di aver ripristinato l’85 percento della fornitura a 48.000 clienti colpiti, ma il nodo vero è politico e strutturale: chi paga per questa corsa all’elettricità?
Se oggi l’intelligenza artificiale sembra essere ovunque, il motivo è piuttosto semplice: da qualche parte, fisicamente, deve pur girare. E quel “da qualche parte” ha un nome molto concreto, molto poco poetico e sempre più strategico: data center. I numeri dell’Osservatorio Data Center del Politecnico di Milano raccontano una storia che vale la pena leggere come si leggerebbe una buona cronaca tecnologica: con la consapevolezza che non stiamo parlando solo di server e megawatt, ma del sistema nervoso dell’economia digitale e dell’AI in Italia.
C’è un vecchio detto che recita “tanto tuonò che piovve” per indicare che le cose non accadono mai all’improvviso: ci sono sempre dei segnali premonitori, proprio come il tuono annuncia la pioggia. Nel caso di Cloudflare, invece, quando arriva una multa da oltre 14 milioni di euro, non piove: scoppia direttamente un temporale geopolitico-digitale con fulmini, saette e comunicati su X. Nei giorni scorsi l’AGCOM ha sanzionato il colosso americano delle infrastrutture di rete e della sicurezza web per la “perdurante violazione” della normativa antipirateria italiana ed ecco che, puntuale come un aggiornamento di sistema non richiesto, è arrivata la risposta del CEO Matthew Prince. Lunga, infuocata e, soprattutto, molto americana.
Qualunque recruiter sa cosa significhi combattere la guerra per i talenti e contrastare la cosiddetta “fuga dei cervelli”: laureati di valore che realizzano il proprio potenziale all’estero, per operatori esteri. Con il progresso digitale, il problema non riguarda solo i cervelli naturali, umani. L’intelligenza artificiale ha bisogno di regole, training e cervelli elettronici attraverso cui operare e creare valore. Diventa così prioritario per l’Italia sviluppare e adottare un cloud nazionale indipendente, evitando la fuga dei “cervelli artificiali”, ovvero di dati, capacità computazionale e infrastrutture digitali, oggi nelle mani dei colossi globali.
Airbus ha deciso di mettere in discussione una delle dipendenze più profonde dell’industria digitale europea. Quella dal cloud di Amazon, Google e Microsoft. Non è uno strappo improvviso né una fuga ideologica, ma una mossa calcolata, politica e tecnologica insieme, che dice molto su come stanno cambiando i rapporti tra industria, dati e sovranità digitale nel Vecchio Continente.
L’intelligenza artificiale non sta bussando alla porta, e già entrata e si e seduta al tavolo del consiglio di amministrazione. Training, inference, modelli sempre più grandi, tempi di risposta sempre più stretti. Tutto questo ha un comune denominatore che pochi amano discutere apertamente: la fame insaziabile di GPU. Non e una moda passeggera ma una dinamica strutturale. Le GPU sono risorse finite, concentrate nelle mani di pochi grandi player globali e vendute a prezzi che seguono più la legge della scarsità che quella dell’efficienza industriale. In questo scenario molte aziende scoprono troppo tardi che spostare tutto su un hyperscaler non e una scelta neutrale ma una forma sofisticata di dipendenza tecnologica.
Il cloud lock in non arriva con una clausola scritta in piccolo. Arriva quando scopri che per usare una GPU devi adattare l’intera infrastruttura, riscrivere pipeline, accettare modelli di pricing opachi e rinunciare a qualsiasi leva negoziale. Arriva quando il tuo stack Kubernetes diventa improvvisamente un cittadino di seconda classe rispetto a servizi proprietari che promettono semplicità ma consegnano rigidità. Ed e proprio qui che molte aziende europee iniziano a cercare alternative, non per ideologia ma per sopravvivenza economica e strategica.
L’annuncio del Future Network Test Facility (FNTF) da parte del Science and Technology Daily non e solo un capolavoro di ingegneria infrastrutturale: e un segnale geopolitico forte lanciato da Pechino a Washington, Bruxelles e a tutti i protagonisti della competizione globale per l’intelligenza artificiale. Una rete ottica nazionale di oltre 55 mila chilometri che collega centri di calcolo isolati affinche operino come un’unica enorme macchina estremamente efficiente rappresenta piu di un’infrastruttura di comunicazione. Rappresenta un’arena nella quale potenza di calcolo, controllo dei dati e influenza sulle regole tecniche si intrecciano in dinamiche di potere internazionale.
Nel 2025 il mondo tecnologico ha scoperto che la vera misura del potere non era più il numero di brevetti o di linee di codice, ma la capacità di costruire data center IA 2025 abbastanza vasti da sembrare infrastrutture energetiche nazionali mascherate da campus hi tech. Si è trattato di una rivelazione quasi ovvia per chi osserva da anni la traiettoria dell’intelligenza artificiale, ma molti hanno fatto finta di stupirsi quando Nvidia, Oracle, Meta e OpenAI hanno trasformato la corsa alle GPU in una competizione per accaparrarsi terreni, gigawatt e cemento, come se l’innovazione avesse finalmente riscoperto l’odore della polvere.
L espansione data center AI è diventata la nuova ossessione della finanza globale, una sorta di febbre dell oro che promette miracoli ma presenta un conto salato che molti fingono di non vedere. La storia recente di Oracle, con i suoi investimenti fuori scala e la conseguente reazione scomposta dei mercati, racconta molto più di un semplice scivolone trimestrale. Racconta un intero sistema industriale che corre a velocità insostenibile verso un futuro non ancora scritto, sperando che i numeri si materializzino esattamente come promesso.
Musk ha recentemente dichiarato che “SpaceX farà questo”: adattare la sua costellazione satellitare Starlink V3 per sostenere veri e propri data center spaziali. In parallelo, la prospettiva di un’IPO nel 2026, con l’obiettivo di raccogliere oltre 25-30 miliardi di dollari, renderebbe possibile finanziare massicciamente questo esperimento.
Non è un’idea isolata: c’è chi come Jeff Bezos ha già parlato di “data center spaziali su scala gigawatt” da realizzare nei prossimi 10-20 anni. Alcune startup e aziende “terrestri” cercano di farne una proposta concreta: un uso dello spazio come estensione naturale dell’infrastruttura di calcolo terrestre, soprattutto in vista della crescita esponenziale di carichi legati all’intelligenza artificiale.
In tutta Europa la sovranità digitale è diventata il nuovo terreno di confronto politico, tecnologico e industriale. Non è più una discussione da convegno, né un’espressione di moda. È il tentativo concreto dei Paesi di recuperare il controllo su infrastrutture, dati e piattaforme che oggi determinano tanto la competitività economica quanto la sicurezza nazionale. Ed è interessante notare come, mentre l’Unione europea spinge verso cloud sovrani, regole condivise e data space settoriali, il Regno Unito stia tracciando una strada tutta sua, con un pragmatismo tipicamente britannico e una certa ambizione strategica.
L’idea di xAI di dedicare 88 acri a un impianto solare adiacente al data center Colossus non è solo un gesto simbolico di ecosostenibilità: secondo i piani annunciati, la centrale fotovoltaica genererebbe circa 30 megawatt, ossia sufficienti a coprire solo il 10% del fabbisogno energetico stimato per la struttura. È una quantità modesta rispetto al consumo di una super-computer farm che addestra modelli di IA su larga scala, ma non va sottovalutata: è un primo passo, o almeno la parte più visibile di una narrazione verde che Musk e il suo team possono sbandierare.
Google si ritrova a fare i conti con una verità che nessun colosso tecnologico ammette volentieri quando parla ai mercati. La macchina che ha costruito, una creatura fatta di algoritmi, data center, chip dedicati e aspettative infinite, sta crescendo più velocemente della capacità stessa dell’azienda di sostenerla. La chiamano crisi di scala, un termine che sembra innocuo, quasi tecnico, ma che allo stato attuale descrive uno dei momenti più delicati nella storia dell’infrastruttura digitale moderna. La keyword crisi di scala Google sintetizza perfettamente un fenomeno in cui l’ambizione supera la fisica, dove la domanda di servizi intelligenti corre a una velocità tale che persino un gigante abituato a riscrivere il futuro fatica a reggere il ritmo.
Nel mondo dell’AI, dove ogni settimana spunta un nuovo annuncio miliardario, la notizia della partnership tra OpenAI e Foxconn si distingue come una mossa decisiva: non solo perché unisce due protagonisti globali della tecnologia, ma anche perché segna un passo concreto verso la costruzione, in territorio Usa, delle infrastrutture che saranno chiamate a reggerere il prossimo decennio di sviluppo dell’intelligenza artificiale.
Il Regno Unito sta giocando le sue carte migliori, e lo fa a suon di miliardi e posti di lavoro. Negli ultimi giorni, il governo ha annunciato un’ondata di investimenti in intelligenza artificiale destinata a ridefinire il tessuto industriale e tecnologico del Paese. Decine di migliaia di nuovi posti di lavoro, più di 24 miliardi di sterline di investimento privato in un solo mese e una serie di partnership tra aziende internazionali e locali disegnano un quadro inedito, in cui la Gran Bretagna non vuole più essere spettatore ma protagonista globale dell’AI.
Il video di Elon con la sua risata improvvisa, il contesto quasi surreale – un promemoria potente: anche ai confini dell’AI, un po’ di caos e ironia continuano a dominare la scena.
Ma dietro il sorriso, oggi si annuncia qualcosa di molto serio e strategico: Elon Musk insieme a Jensen Huang (il genio in camicia nera di Nvidia) hanno svelato un framework con HUMAIN per costruire data center GPU iperscalabili e a basso costo nel Regno dell’Arabia Saudita. Non si tratta di un giochetto: stiamo parlando di un’infrastruttura su vasta scala, con l’obiettivo di portare il modello Grok di xAI dentro HUMAIN ONE, la piattaforma agente di HUMAIN, per una distribuzione nazionale in Arabia Saudita.
Il paradosso più divertente è che ci siamo accorti di quanto dipendiamo dai nostri giocattoli digitali solo quando Cloudflare ha deciso di prendersi una pausa non richiesta. Il risultato è stato un silenzio improvviso, quasi teatrale, in cui l’infrastruttura internet ha mostrato quanto sia sottile la distanza tra onnipotenza percepita e fallibilità strutturale. La keyword centrale è Cloudflare outage e le correlate sono infrastruttura internet e centralizzazione digitale, un triangolo concettuale che merita più attenzione di quanta ne riceva quando tutto funziona. La rete globale si è fermata di colpo e con lei si è fermata la nostra capacità di produrre, comunicare, creare contenuti o fingere di essere super efficienti. È curioso notare come molti si siano trovati davanti allo schermo a chiedersi se ricordassero ancora come si scrive un testo senza un assistente virtuale. La risposta non è stata particolarmente rassicurante.
Quando si osserva la curva esponenziale dei consumi energetici dell’intelligenza artificiale, la sensazione è quella di assistere a un gigantesco paradosso moderno in cui la voglia di potenza finisce per scontrarsi con i limiti fisici del pianeta. L’impressione è che la Terra stessa stia diventando una sorta di data center sovraccarico, incapace di offrire la banda energetica necessaria a un’industria che cresce più velocemente della nostra capacità di generare elettricità. Attorno a questa orbita concettuale ruotano altre due espressioni emergenti, energia per l’AI e computazione orbitale, che stanno ridefinendo il dibattito strategico delle grandi compagnie tecnologiche.
L’intelligenza artificiale sta divorando elettroni. La nuova corsa all’oro digitale non è più frenata dai capitali o dai chip, ma dai megawatt. Mentre gli algoritmi riscrivono l’economia globale, gli Stati Uniti si scoprono vulnerabili: una superpotenza tecnologica con un’infrastruttura elettrica da era industriale. Negli ultimi mesi, interi data center costruiti con miliardi di dollari giacciono inattivi, in attesa di un semplice “via” dalla rete. Un caso emblematico è quello di un impianto californiano, a pochi chilometri dal quartier generale di Nvidia, che aspetta da sei anni la connessione alla linea ad alta tensione.
L’intelligenza artificiale non si accontenta più delle GPU. Ora ha fame di tutto, perfino dei dischi. La nuova ondata di investimenti e addestramento di modelli generativi ha scatenato una crisi silenziosa nel mercato dello storage, dove la domanda esplosiva di capacità sta schiacciando la produzione globale di HDD e spingendo i data center a una corsa disperata verso le SSD QLC. Il risultato è un mix esplosivo di carenza, rialzi e isteria logistica che rischia di far impennare i prezzi al dettaglio in pochi mesi.