Categoria: Cloud e Data Center Pagina 1 di 4

Cloud, Storage, Software, Data Center

Microsoft cancella 200 MW di AI Data Centers

Microsoft rimane uno dei protagonisti dominanti nella corsa all’infrastruttura AI, ma le sue decisioni recenti suggeriscono che ha deciso di imprimere un freno selettivo non un arresto totale. La società ha confermato l’impegno a spendere circa 80 miliardi di dollari in infrastrutture AI nel corso del suo anno fiscale 2025, includendo data center e relative componenti infrastrutturali.

Nei confronti dei cancellamenti, Microsoft ha adottato una posizione cauta: in molte comunicazioni dichiara che “potrebbe rallentare o aggiustare l’infrastruttura in alcune aree”, ma che rimane forte l’intenzione di crescita globale.

Un cambio di paradigma nell’architettura cloud dell’AI

OpenAI ha firmato un contratto settennale da 38 miliardi di dollari con AWS per assorbire “centinaia di migliaia” di GPU Nvidia nei prossimi anni. Entro fine 2026 tutta la capacità sarà operativa, con margine per espansione nel 2027 e oltre.

Questo significa che OpenAI smette (o quantomeno riduce fortemente) la sua dipendenza esclusiva da Microsoft Azure, superando quel “diritto di prelazione” che Microsoft ancora deteneva. Il legame con Microsoft non scompare: OpenAI ha un nuovo accordo vincolato fino al raggiungimento dell’AGI, e impegni d’acquisto per 250 miliardi di servizi Azure restano sul tavolo.

OpenAI e Oracle lanciano un’espansione significativa del progetto Stargate nel Michigan

Quando il futuro diventa mattoncino di silicio
OpenAI ha annunciato che costruirà nel Michigan, in Saline Township, un campus dati da oltre 1 gigawatt come parte dell’espansione Stargate in partnership con Oracle e uno sviluppatore immobiliare, Related Digital. L’obiettivo dichiarato è arrivare combinando questo sito con gli altri già in cantiere a più di 8 GW di capacità distribuiti su sette locazioni statunitensi e a un impegno complessivo che supera i 450 miliardi di dollari nei prossimi tre anni.

Amazon inaugura Project Rainier, il data center da 11 miliardi di dollari per l’intelligenza artificiale di Anthropic

Amazon ha acceso i motori del suo nuovo colosso dell’intelligenza artificiale. Project Rainier, annunciato per la prima volta nel dicembre 2024 e ora ufficialmente operativo in Indiana, è un data center da 11 miliardi di dollari che segna una svolta nella corsa ai modelli generativi. L’obiettivo è chiaro: fornire la potenza di calcolo necessaria ad Anthropic, la società di IA generativa dietro Claude, che molti analisti ormai considerano l’unico vero rivale strutturale di OpenAI.

AMD accelera la supercomputazione americana con Lux e Discovery da 1 miliardo di dollari

Nel cuore del Tennessee, all’Oak Ridge National Laboratory (ORNL), si sta preparando una rivoluzione digitale che potrebbe ridefinire il futuro dell’intelligenza artificiale e della supercomputazione. AMD, in collaborazione con il Dipartimento dell’Energia degli Stati Uniti (DOE), Hewlett Packard Enterprise (HPE) e Oracle, ha siglato un accordo da 1 miliardo di dollari per sviluppare due supercomputer all’avanguardia: Lux e Discovery. Questi sistemi non sono solo macchine potenti; sono la spina dorsale di un’infrastruttura AI sovrana progettata per accelerare la ricerca scientifica, l’innovazione energetica e la sicurezza nazionale.

Nvidia e Deutsche Telekom preparano un data center da 1 miliardo di euro in Germania per l’intelligenza artificiale europea

Nvidia e Deutsche Telekom stanno per lanciare un progetto da 1 miliardo di euro in Germania, un’infrastruttura mastodontica destinata a diventare il cuore pulsante dell’intelligenza artificiale europea. Secondo quanto riportato da Bloomberg, il nuovo data center sarà realizzato a Monaco e impiegherà circa 10.000 GPU di ultima generazione, il tipo di chip che oggi muove l’intero ecosistema dell’AI generativa. Una cifra che non è solo un investimento tecnologico, ma un messaggio geopolitico: l’Europa non vuole restare spettatrice nella corsa globale all’intelligenza artificiale.

Google spinge il gas con cattura: un rischio calcolato o salto nel baratro?

Google ha appena annunciato un passo che sembra quasi una contraddizione in termini: finanziare una centrale a gas con cattura e stoccaggio del carbonio (CCS) per alimentare i propri data center, sostenendo così la crescita dell’intelligenza artificiale ma, allo stesso tempo, cercando di restare “verde”. Il progetto, chiamato Broadwing Energy, sorgerà a Decatur, Illinois, e Google si impegna ad acquistare la maggior parte dell’energia prodotta. Il salto è audace e carico di ambiguità.

Alibaba lancia Aegaeon e riduce l’uso di GPU Nvdia dell’82 per cento

Alibaba Group Holding ha appena scosso il mondo dell’intelligenza artificiale e del cloud computing con l’annuncio di Aegaeon, un sistema di pooling computazionale che promette di rivoluzionare il modo in cui le GPU vengono utilizzate per servire modelli di AI su larga scala. Secondo quanto riportato in un paper presentato al 31° Symposium on Operating Systems Principles a Seoul, il nuovo sistema ha permesso di ridurre il numero di GPU Nvidia H20 necessarie per gestire decine di modelli fino a 72 miliardi di parametri da 1.192 a soli 213 unità, un taglio impressionante dell’82 per cento. La beta di Aegaeon è stata testata per oltre tre mesi nel marketplace di modelli di Alibaba Cloud, evidenziando come la gestione delle risorse sia stata tradizionalmente inefficiente.

Colosso da 40 miliardi: BlackRock, Nvidia e xAI uniscono le forze per rivoluzionare i data center dell’AI

Un consorzio di investimento che include BlackRock, Global Infrastructure Partners e il fondo MGX di Abu Dhabi ha concluso un accordo da 40 miliardi di dollari per l’acquisizione di uno dei maggiori operatori di data center al mondo, lanciando un’iniziativa volta a sostenere le infrastrutture per l’intelligenza artificiale.

La Cina avvia la costruzione di un supercomputer orbitale

Se Jeff Bezos ha annunciatola scorsa settiman all Italian Tech WeeK l’intenzione di lanciare data center nello spazio, la proposta dei ricercatori cinesi va oltre: immaginano un’infrastruttura satellitare globale condivisa, alimentata dall’intelligenza artificiale, per offrire servizi in tempo reale a tutti gli abitanti della Terra, evitando il sovraffollamento pericoloso dello spazio.

Il contesto della “domanda che sorpassa l’offerta” nei data center

Una delle tendenze più evidenti del mercato infrastrutturale digitale è che la domanda spinta da intelligenza artificiale, elaborazione in cloud e generative AI sta crescendo con velocità che mette sotto pressione la capacità infrastrutturale disponibile. Secondo il report Global Data Center Trends 2025 di CBRE, “demand continues to outpace new supply” nei principali hub mondiali, e il tasso di vacanza medio dei data center è sceso a circa 6,6 %, con strette particolarmente acute nei cluster di potenza e nelle zone core.

Ma cosa significa “domanda che sorpassa capacità” in concreto? Significa che i provider iperscalatori (Microsoft, Amazon, Google, etc.) e i grandi clienti enterprise stanno correndo a prenotare spazi e potenza molto prima che le strutture siano costruite; molti progetti vengono “preleased”cioè venduti in anticipo — e le tempistiche di consegna si estendono oltre il 2027, spesso per vincoli sull’energia, permessi, interconnessioni e forniture.

Stanco dei mal di testa del cloud per l’AI? Skypilot AI potrebbe diventare il tuo migliore alleato

SkyPilot

Chi lavora con l’intelligenza artificiale sa bene che il vero nemico non è la complessità degli algoritmi, ma la giungla del cloud. GPU introvabili, YAML che sembrano scritti in sanscrito, costi che esplodono senza preavviso e cluster Kubernetes che si comportano come teenager capricciosi. È il grande paradosso dell’AI moderna: mentre i modelli diventano sempre più sofisticati, l’infrastruttura che dovrebbe sostenerli diventa un campo minato. È qui che entra in gioco SkyPilot AI, un progetto che sta iniziando a far rumore tra sviluppatori, ricercatori e team DevOps che non ne possono più di combattere ogni giorno contro la burocrazia tecnologica del cloud.

Serverless & Cloud trends 2025 Report

Quando parlo di “trend 2025”, non mi riferisco a vanterie da blog tecnico: intendo tendenze che domineranno budget plurimilionari, evoluzioni che ridefiniranno architetture, responsabilità e vantaggi competitivi. E sì, lo faccio anche con numeri perché senza cifre, è solo narrativa.

La parola chiave rimane mobilità dei workload. Nel 2025, la migrazione “fissa” è morta. Le aziende vedranno la nuvola non come una destinazione ma come un ecosistema fluido: sposteranno carichi da on-prem a cloud, tra cloud diversi, o li modernizzeranno dove già risiedono.

La cina affonda i data center nell’oceano: la scommessa estrema per raffreddare l’intelligenza artificiale

Il cuore pulsante della rete mondiale non è etereo come ci piace immaginarlo. Ogni click, ogni query su ChatGPT o ogni video in streaming brucia elettricità in enormi capannoni metallici che chiamiamo data centre. Quei templi dell’informazione che divorano energia come vecchie locomotive a carbone sono diventati il tallone d’Achille della digitalizzazione. In Cina qualcuno ha deciso di portare la questione a un nuovo livello, o meglio, a una nuova profondità: un pod di server verrà immerso al largo di Shanghai, con la pretesa di trasformare l’oceano nel più grande sistema di raffreddamento gratuito della storia tecnologica.

The windswept AI gamble: Ellendale e la megafabbrica che sfida la ragione

Ellendale, North Dakota, non è mai stata famosa per i suoi grattacieli. Due motel, un Dollar General, un istituto pentecostale: questo era prima che entrasse in gioco la febbre dell’“AI factory”. Oggi sorgerà una struttura capace di ospitare migliaia di GPU, con costi che si aggirano nella fascia dei miliardi. È un azzardo che sembra scritto da chi crede davvero che l’intelligenza artificiale sia la prossima rivoluzione industriale. Ma il rischio è che Ellendale diventi l’epicentro e non il coronamento di una bolla.

Alibaba cloud e Nvidia rafforzano la scommessa sull’embodied AI, tra robot umanoidi e infrastruttura AI

L’intelligenza artificiale senza corpo è già abbastanza spaventosa per molti, ma quella incarnata in robot e macchine autonome tocca corde molto più profonde, quasi primordiali. Alibaba Cloud e Nvidia hanno deciso di cavalcare proprio questa frontiera, annunciando a Hangzhou l’integrazione degli strumenti di embodied AI del gigante statunitense dei semiconduttori nella piattaforma cloud della società cinese. Una partnership che non sorprende nessuno, ma che racconta molto sul futuro che si sta disegnando sotto i nostri occhi, spesso più in fretta di quanto i regolatori possano leggere i documenti che loro stessi producono.

Huawei Atlas 950 e la corsa al supercomputer AI: il colosso cinese contro Nvidia e xAI

Huawei ha deciso di alzare la posta. Non parliamo di un nuovo smartphone da scaffale, ma di una dichiarazione di guerra tecnologica che arriva da Shanghai con il peso di milioni di transistor. Il protagonista è l’Huawei Atlas 950, la nuova arma che il colosso cinese schiera per dominare la scena del supercomputer AI e trasformare il concetto stesso di potenza computazionale. Siamo di fronte a un momento che definire storico non è un’iperbole, perché ridisegna gli equilibri globali tra Pechino, Silicon Valley e il regno visionario di Elon Musk.

META platforms pronta a spostare l’intelligenza artificiale sul cloud di Oracle in un accordo da 20 miliardi di dollari

Quando Meta Platforms decide di fare shopping tecnologico, il mercato non resta mai indifferente. La notizia che il colosso guidato da Mark Zuckerberg starebbe valutando un accordo pluriennale con Oracle per utilizzare i suoi servizi cloud nella formazione e nel deployment dei modelli di intelligenza artificiale ha già fatto salire il titolo Oracle del 4 per cento in una singola seduta.

Bloomberg ha parlato di un’intesa potenziale da circa 20 miliardi di dollari, ancora in fase di discussione ma sufficiente a scatenare speculazioni, entusiasmi e, naturalmente, l’ansia di chi teme che la geografia del potere tecnologico globale stia mutando sotto i nostri occhi.

Microsoft Fairwater Wisconsin: la corsa al Data Center AI più potente del mondo

Microsoft Fairwater Wisconsin non è un nome che evoca poesia, ma piuttosto acciaio, cavi sotterranei e flussi di corrente elettrica che potrebbero alimentare una città di medie dimensioni. Il progetto da 3,3 miliardi di dollari in costruzione a Mount Pleasant, con un gemello da 4 miliardi già annunciato, rappresenta la trasformazione della campagna americana in un epicentro di calcolo per l’intelligenza artificiale. Non si tratta più di server farm come quelle che ospitavano il vecchio internet fatto di pagine statiche e banner pubblicitari, qui parliamo di un’infrastruttura concepita per addestrare i modelli AI più complessi del pianeta, a partire da quelli di OpenAI, fino a diventare la spina dorsale delle stesse operazioni Microsoft.

Amazon realizzerà doppio Data Center a Milano

Milano continua a brillare come hub tecnologico, ma questa volta lo fa sotto l’ombra di una colonizzazione digitale. Amazon è pronta a realizzare un doppio data center tra Rho e Pero, con un investimento da oltre 750 milioni di euro, mentre il governo italiano firma il decreto di Via il 10 settembre 2025. Il progetto è dichiarato di interesse strategico nazionale, ma il paradosso è evidente: infrastrutture critiche per la sovranità digitale italiana affidate a un colosso straniero. La procedura di Valutazione di Impatto Ambientale si è chiusa positivamente, ma resta il nodo della dipendenza tecnologica.

Mentre l’Italia approva DDL su AI, il Regno Unito costruisce fabbriche di GPU come se fossero miniere d’oro

Il paradosso è servito. Da una parte il Parlamento italiano che discute con toni solenni un disegno di legge sull’intelligenza artificiale, con la tipica liturgia normativa che somiglia più a un esercizio accademico che a una strategia industriale. Dall’altra parte il Regno Unito che, senza troppe cerimonie, annuncia con NVIDIA e i suoi partner la più massiccia operazione di rollout infrastrutturale AI della sua storia: fino a 120.000 GPU Blackwell Ultra, 11 miliardi di sterline in data center, supercomputer in arrivo e persino un progetto battezzato Stargate UK. Non è un dettaglio, è la fotografia plastica di come due paesi affrontano la cosiddetta AI industrial revolution. Da un lato la politica che si concentra su cornici etiche, dall’altro il capitalismo anglosassone che usa GPU come mattoni per costruire la sovranità digitale.

Oracle rivoluziona le risorse umane con agenti ai integrati in Fusion Cloud HCM

La notizia arriva come un colpo secco per chi ancora pensa che l’intelligenza artificiale nelle risorse umane sia un lusso futuristico o un gadget costoso. Oracle, gigante con oltre 45 anni di esperienza tecnologica, presenta oggi una nuova generazione di agenti AI integrati nella suite Fusion Cloud HCM, capaci di gestire l’intero ciclo di vita dei dipendenti, dalla selezione al pensionamento, senza alcun costo aggiuntivo per i clienti. Il messaggio è chiaro: l’AI non è più un’opzione, ma una componente intrinseca di qualsiasi strategia HR moderna.

Investimento Microsoft UK per AI

Microsoft ha dichiarato che investirà $30 miliardi (≈ £22 miliardi) nel Regno Unito nel periodo 2025-2028 per potenziare infrastruttura AI e operazioni correnti. (vedi The Official Microsoft Blog)

Di questi, circa $15 miliardi sono destinati a capital expenditures (“capex”) per costruire infrastruttura cloud/AI, in particolare un supercomputer con oltre 23.000 GPU NVIDIA, in partnership con la società britannica Nscale.

Il resto (gli altri ~$15 miliardi) serve a sostenere le operazioni correnti nel Regno Unito: forza lavoro (~6.000 dipendenti), data centre esistenti, ricerca, sviluppo, supporto clienti, e attività varie distribuite sul territorio.

La corsa ai chip per intelligenza artificiale e il futuro delle GPU e TPU

Il mondo dell’intelligenza artificiale sta vivendo una fase di accelerazione vertiginosa, con hardware specializzato che definisce la capacità reale di un modello di incidere sul mercato. Parliamo di GPU e TPU, non di semplici acceleratori, ma di macchine che decidono chi sopravvive nel panorama delle grandi LLM. Meta con Llama4 e DeepSeek ha dimostrato quanto il deployment su infrastrutture di Google Cloud non sia più un’opzione sperimentale ma uno standard riproducibile, benchmarkabile e, soprattutto, economicamente misurabile.

Deploying Llama4 e DeepSeek sui cosiddetti AI Hypercomputer di Google Cloud è un esercizio di precisione chirurgica. Non basta avere una GPU A3 o un TPU Trillium, serve orchestrare cluster multi-host, convertire checkpoint dei modelli, gestire la logistica della memoria distribuita e ottimizzare inference con motori come JetStream e MaxText. Il bello è che Google pubblica ricette open source per riprodurre tutto, quasi un invito a fare benchmarking casalingo, senza dover reinventare la ruota. Chi ha provato MoE, Mixture of Experts, sa che la complessità aumenta esponenzialmente ma anche l’efficienza di inferenza se gestita correttamente. Pathways diventa la bacchetta magica per orchestrare distribuzioni massive, e non parlo solo di numeri ma di gestione intelligente delle pipeline.

Data Center UK: il nuovo terreno di conquista di OpenAI e Nvidia

La geopolitica dell’intelligenza artificiale si è trasformata in una questione di megawatt e metri quadri di cemento raffreddato a liquido. Non si parla più di algoritmi e modelli come semplice leva competitiva, ma di chi possiede i data center UK più potenti e vicini al cuore finanziario europeo. Ed è qui che entrano in scena Sam Altman e Jensen Huang, rispettivamente volto e regista di due colossi come OpenAI e Nvidia, pronti a promettere miliardi di dollari di investimenti nel Regno Unito. Una mossa che arriva non a caso in sincronia con la visita di Donald Trump, trasformando Londra e dintorni nel palcoscenico preferito per dimostrare potenza tecnologica e influenza politica.

Da The New Yorker

Neuromorphic Computing: la rivoluzione silenziosa contro il dominio GPU

Nvidia fa marcia indietro sul cloud e lascia la scena ad AWS

Nvidia cloud. Suona bene, quasi come una dichiarazione di guerra, e infatti per un attimo sembrava che Jensen Huang fosse pronto a sfidare Jeff Bezos sul suo stesso terreno. Il progetto DGX Cloud era stato presentato come l’alternativa premium, l’oasi GPU-centrica dentro l’arida prateria dei cloud generalisti. Ma la realtà, come sempre, è meno poetica. Nvidia ha deciso di tirare il freno a mano. Non che chiuda il baraccone, sia chiaro, ma smette di fare la concorrenza frontale ad AWS e ai suoi cugini Microsoft e Google.

Una ritirata elegante, raccontata come “scelta strategica di collaborazione”. Tradotto dal gergo corporate: abbiamo visto che stava diventando un suicidio.Il motivo è quasi banale. Nvidia vive vendendo i suoi chip a quelli che avrebbe dovuto combattere. AWS, Microsoft Azure, Google Cloud. Non semplici clienti, ma clienti colossali che comprano in blocco l’intero arsenale di GPU H100 e presto Blackwell.

Fare la concorrenza a chi ti paga i conti significa mordere la mano che ti nutre. Huang è spavaldo, ma non stupido. Meglio ammorbidire il gioco, vendere tonnellate di silicio e lasciare che siano gli altri a sobbarcarsi il lavoro sporco di gestire data center, SLA e clienti insoddisfatti alle tre di notte.

OpenAI e Oracle: il contratto da 300 miliardi che riscrive il mercato del cloud

La notizia è semplice ma distruttiva per le vecchie abitudini del mercato tecnologico: OpenAI avrebbe firmato un accordo con Oracle per acquistare 300 miliardi di dollari in potenza di calcolo su un orizzonte di circa cinque anni, uno degli acquisti cloud più vasti mai registrati su scala industriale. Questo non è un esercizio di iperbole finanziaria, ma la costruzione concreta di una dipendenza infrastrutturale che rimodella rapporti di forza, dinamiche di costo e leve geopolitiche intorno all’intelligenza artificiale.

Questo accordo si innesta dentro un progetto più ampio che ormai ha un nome quasi mitologico: Project Stargate, la scommessa di OpenAI, Oracle e altri partner per costruire nuove capacità di data center che richiederanno fino a 4.5 gigawatt di potenza. La cifra è reale e impressionante, perché 4.5 gigawatt significano impianti su scala industriale che non si installano in un garage ma si progettano con ingegneria pesante, accordi energetici e permessi politici. Il comunicato congiunto e i documenti pubblici dell’iniziativa lo confermano.

Nvidia e la corsa ai data center da gigawatt: il futuro dell’infrastruttura AI

Quando Nvidia pubblica un bilancio che fa girare la testa agli investitori, non stiamo parlando di numeri da “cresciuto un po’”. Stiamo parlando di cifre che riscrivono la geografia economica dell’intelligenza artificiale. Jensen Huang, CEO della società, ha lanciato un’indicazione chiara: un singolo data center AI da un gigawatt costerà circa 50 miliardi di dollari. Di quei 50 miliardi, 35 miliardi finiranno nelle casse di Nvidia sotto forma di hardware, lasciando il resto per sistemi complementari. Non sono più i classici megawatt che si spostano con calma nei bilanci aziendali; qui parliamo di gigawatt, di super-fabbriche AI che potrebbero moltiplicare i costi e, ovviamente, i profitti di Nvidia.

OpenAI non sta giocando piccolo. Bloomberg ha riportato che l’azienda sta esplorando partnership in India per costruire un data center da un gigawatt e allo stesso tempo programma strutture simili negli Stati Uniti e in altre regioni globali. Tradotto in soldoni, se le stime di Nvidia reggono, il piano di OpenAI potrebbe tradursi in centinaia di miliardi di dollari destinati all’infrastruttura AI. Non è fantascienza, è capitalismo su scala industriale spinto dall’intelligenza artificiale.

Nebius e il nuovo gioco di potere nei Data Center AI

La scena è questa: un titolo poco noto come Nebius, capitalizzazione di mercato di circa 15 miliardi di dollari, annuncia che affitterà GPU Nvidia a Microsoft con un contratto pluriennale da 17,4 miliardi fino al 2031. Le azioni schizzano del 40% nell’after hours, gli investitori esultano e il settore dei data center AI prende nota. Non è soltanto la storia di un accordo, è la dimostrazione plastica di come si stia ridisegnando la geografia del potere tecnologico. Microsoft non compra, Microsoft affitta. Scarica il rischio, come fa da tempo con CoreWeave, e mette Nebius in prima fila nella corsa globale alle GPU.

Data center: da “consumatori energivori” a motori di decarbonizzazione e crescita

I data center non sono solo i pilastri della trasformazione digitale: se integrati con il sistema energetico, possono diventare alleati nella decarbonizzazione delle città. È questa la chiave di lettura che Renato Mazzoncini, Amministratore Delegato di A2A, ha proposto al Forum TEHA di Cernobbio, dove è stato presentato uno studio sul ruolo strategico di queste infrastrutture in Italia.

Data Center, da costo a motore di crescita. Studio TEHA: come l’Italia può trasformare l’energia digitale in PIL e sostenibilità

I data center non sono più soltanto “fabbriche di bit”: se guidati da una visione strategica, possono diventare leve di competitività, occupazione e sostenibilità per l’Italia. È quanto emerge dal Position Paper “L’Italia dei data center. Energia, efficienza, sostenibilità per la transizione digitale”, presentato al Forum di Cernobbio da TEHA Group in collaborazione con A2A. Secondo lo studio, lo sviluppo del settore potrebbe contribuire dal 6% al 15% della crescita annuale del PIL nazionale, abilitando fino a 150.000 nuovi posti di lavoro tra diretti, indiretti e indotti. Numeri che confermano come i data center siano ormai infrastrutture strategiche, indispensabili per sostenere la diffusione di AI, IoT e cloud computing.

L’industria tech sotto accusa: la NAACP lancia l’allarme per i nuovi data center

L’industria tecnologica statunitense è stata messa “in allerta” dalla NAACP, una delle principali organizzazioni per i diritti civili negli Stati Uniti, che ha lanciato un appello alle comunità locali affinché chiedano maggiore responsabilità alle aziende che costruiscono nuovi data center. La domanda di elettricità negli Stati Uniti sta crescendo per la prima volta in quasi due decenni, in gran parte a causa della costruzione di massicci data center destinati a supportare i progressi nell’intelligenza artificiale. Le utility e alcune aziende tecnologiche stanno sempre più soddisfacendo questa domanda con combustibili fossili, peggiorando la qualità dell’aria e aggravando la crisi climatica, spingendo la NAACP a emettere “principi guida” per aiutare i membri delle comunità locali a opporsi.

Consumi data center: tra mito energetico e realtà industriale italiana

Chi grida all’apocalisse energetica dei data center in Italia punta più al palcoscenico che ai bilanci. C’è chi sventola scenari da decine di gigawatt come se l’intera dorsale elettrica nazionale fosse a disposizione di capannoni ronzanti piazzati da Bolzano a Pachino. La realtà, spietata e poco glamour, è che il mercato digitale italiano cresce a passo breve, l’accesso alla rete non è una formalità e la matematica finanziaria non perdona. Gli scenari sereni fanno vendere meno clic, ma aiutano a non sbagliare investimenti. Secondo le stime più solide sul mercato digitale tracciate da Anitec-Assinform, l’Italia ha chiuso il 2024 con 81,6 miliardi di euro e una crescita del 3,7 per cento, con proiezioni nell’ordine del 3,3-4 per cento medio annuo nei prossimi anni. Un’espansione reale, ma ben lontana dal raddoppio che servirebbe a giustificare una corsa a carico base di dieci gigawatt dedicati solo all’infrastruttura di calcolo. Non è un’opinione, è un denominatore.

Un fatto scomodo per i profeti dei 50 gigawatt è che il parco installato italiano non è una nebulosa insondabile. La fotografia 2024 più citata dagli operatori parla di circa 513 megawatt di potenza IT attiva nel Paese, di cui 238 nell’area milanese, con pipeline in crescita ma tutt’altro che esponenziale. È la dimensione di un mercato che funziona, non di un meteorite in rotta di collisione. Per chi si nutre di iperboli, è una doccia fredda. Per chi deve allocare capitale, è la base su cui costruire casi d’uso sostenibili.

Lambda vs Coreweave: la nuova bolla di potenza computazionale che vuole conquistare Wall Street

La corsa all’oro dell’intelligenza artificiale non riguarda più gli algoritmi o le applicazioni visibili al consumatore, ma la parte che pochi vogliono raccontare: il potere nascosto dell’infrastruttura. Qui si muovono nomi che fino a ieri sarebbero sembrati destinati a restare in un’oscura nicchia di “GPU rental”, ma che oggi sono in procinto di diventare i nuovi padroni dell’economia digitale. Lambda, il provider di cloud AI che affitta potenza di calcolo come fosse petrolio, ha deciso di seguire le orme di CoreWeave, rivale già iperattivo, e sta preparando il suo ingresso in borsa con un IPO da manuale, orchestrata da banche d’affari che non sbagliano mai quando si tratta di fiutare margini. Morgan Stanley, J.P. Morgan e Citi non si muovono a caso, e se hanno messo il timbro è perché hanno intravisto il prossimo big bang della finanza tech.

OpenAI in India: il mega data center da 1 gigawatt che cambierà l’Asia dell’intelligenza artificiale

OpenAI sta preparando una mossa strategica che potrebbe ridefinire il panorama dell’intelligenza artificiale in Asia: la costruzione di un data center in India con una capacità di almeno 1 gigawatt. Questo progetto, parte dell’iniziativa “Stargate”, mira a consolidare la posizione dell’azienda nel secondo mercato mondiale per numero di utenti di ChatGPT, dopo gli Stati Uniti.

Sovranità digitale europea: tra teatro e realtà

Microsoft ci ha appena dato una lezione magistrale di finzione tecnologica. Il suo nuovo servizio cloud “solo UE” promette la luna: dati europei custoditi in centri dati europei, personale locale a monitorare ogni accesso, tutto sotto un tappeto di log e monitoraggio costante. Sulla carta, perfetto. Nella realtà, un bluff gigantesco. Durante un’audizione al Senato francese sul tema della sovranità digitale, Anton Carniaux, direttore degli affari pubblici e legali di Microsoft Francia, ha dichiarato sotto giuramento ciò che tutti sospettavano: non può garantire che i dati dei cittadini francesi siano al sicuro dall’accesso del governo statunitense. Letale per il mito del cloud sovrano. La cruda verità è questa: anche con data center in Europa e personale europeo, la piattaforma resta soggetta alla legge americana.

Meta’s $50 Billion AI Data Center in Louisiana

Meta ha deciso di investire 50 miliardi di dollari in un nuovo centro dati AI in Louisiana, denominato Hyperion. Questa cifra è stata annunciata dal presidente Donald Trump durante una riunione del gabinetto, dove ha mostrato un’immagine del progetto sovrapposto a Manhattan, evidenziando la sua vasta scala. In precedenza, Meta aveva stimato un investimento di oltre 10 miliardi di dollari per questa struttura.

Hyperion sarà il centro dati più grande di Meta, progettato per supportare le sue ambizioni nel campo dell’intelligenza artificiale. La struttura avrà una capacità iniziale di 2 gigawatt, con piani di espansione fino a 5 gigawatt. Per alimentare questa enorme capacità, Entergy Louisiana ha ricevuto l’approvazione regolatoria per costruire tre impianti di generazione a turbina a ciclo combinato, che dovrebbero essere operativi tra il 2028 e il 2029.

Nvidia e la rivoluzione della silicon photonics nei supercluster di intelligenza artificiale

Chiunque abbia seguito Hot Chips 2025 ha capito subito che il messaggio di NVIDIA era diretto e provocatorio: il futuro dei supercluster di intelligenza artificiale non dipende più solo dalla potenza di calcolo delle GPU, ma dall’efficienza dei collegamenti che le uniscono. Lo chiamano Spectrum-X Ethernet Photonics ed è qualcosa che va oltre il semplice annuncio tecnologico. È una dichiarazione di guerra energetica, un nuovo asse strategico dove la silicon photonics smette di essere un esercizio da laboratorio e diventa il cuore pulsante delle reti AI. NVIDIA non si accontenta di dominare la GPU economy, ora vuole riscrivere le regole della connettività nei data center, colonizzando quella terra di nessuno dove finora si sono mossi timidamente Intel e AMD.

GPU SXM in cloud: la nuova era dell’accelerazione

Chi ancora pensa che il cloud sia solo un magazzino di VM a basso costo non ha capito che il gioco è cambiato. Le GPU SXM hanno ribaltato la logica stessa dell’infrastruttura. Non si tratta di schede video piazzate in un server per far girare qualche modello di machine learning, ma di architetture di calcolo pensate per riscrivere le regole della scalabilità. E il bello è che adesso le NVIDIA H100 e le nuovissime H200 in formato SXM sono disponibili nel cloud in configurazioni da 1×, 2×, 4× e 8×, tutte con NVLink sempre attivo, pronte a spingere i workload di AI e HPC in territori che fino a ieri sembravano fantascienza.

Pagina 1 di 4

CC BY-NC-SA 4.0 DEED | Disclaimer Contenuti | Informativa Privacy | Informativa sui Cookie