Categoria: Cloud e Data Center Pagina 1 di 4

Cloud, Storage, Software, Data Center

Sovranità digitale, la nuova frontiera. L’Europa dibatte e il Regno Unito accelera con la Sovereign Platform di BT

In tutta Europa la sovranità digitale è diventata il nuovo terreno di confronto politico, tecnologico e industriale. Non è più una discussione da convegno, né un’espressione di moda. È il tentativo concreto dei Paesi di recuperare il controllo su infrastrutture, dati e piattaforme che oggi determinano tanto la competitività economica quanto la sicurezza nazionale. Ed è interessante notare come, mentre l’Unione europea spinge verso cloud sovrani, regole condivise e data space settoriali, il Regno Unito stia tracciando una strada tutta sua, con un pragmatismo tipicamente britannico e una certa ambizione strategica.

L’ambizione verde? di xAI

L’idea di xAI di dedicare 88 acri a un impianto solare adiacente al data center Colossus non è solo un gesto simbolico di ecosostenibilità: secondo i piani annunciati, la centrale fotovoltaica genererebbe circa 30 megawatt, ossia sufficienti a coprire solo il 10% del fabbisogno energetico stimato per la struttura. È una quantità modesta rispetto al consumo di una super-computer farm che addestra modelli di IA su larga scala, ma non va sottovalutata: è un primo passo, o almeno la parte più visibile di una narrazione verde che Musk e il suo team possono sbandierare.

Google e la crisi di scala nell’intelligenza artificiale

Google si ritrova a fare i conti con una verità che nessun colosso tecnologico ammette volentieri quando parla ai mercati. La macchina che ha costruito, una creatura fatta di algoritmi, data center, chip dedicati e aspettative infinite, sta crescendo più velocemente della capacità stessa dell’azienda di sostenerla. La chiamano crisi di scala, un termine che sembra innocuo, quasi tecnico, ma che allo stato attuale descrive uno dei momenti più delicati nella storia dell’infrastruttura digitale moderna. La keyword crisi di scala Google sintetizza perfettamente un fenomeno in cui l’ambizione supera la fisica, dove la domanda di servizi intelligenti corre a una velocità tale che persino un gigante abituato a riscrivere il futuro fatica a reggere il ritmo.

OpenAI e Foxconn, nasce un’alleanza strategica per i data center AI made in USA

Nel mondo dell’AI, dove ogni settimana spunta un nuovo annuncio miliardario, la notizia della partnership tra OpenAI e Foxconn si distingue come una mossa decisiva: non solo perché unisce due protagonisti globali della tecnologia, ma anche perché segna un passo concreto verso la costruzione, in territorio Usa, delle infrastrutture che saranno chiamate a reggerere il prossimo decennio di sviluppo dell’intelligenza artificiale.

Nuova ondata di investimenti in AI trasforma il Regno Unito in hub globale

Il Regno Unito sta giocando le sue carte migliori, e lo fa a suon di miliardi e posti di lavoro. Negli ultimi giorni, il governo ha annunciato un’ondata di investimenti in intelligenza artificiale destinata a ridefinire il tessuto industriale e tecnologico del Paese. Decine di migliaia di nuovi posti di lavoro, più di 24 miliardi di sterline di investimento privato in un solo mese e una serie di partnership tra aziende internazionali e locali disegnano un quadro inedito, in cui la Gran Bretagna non vuole più essere spettatore ma protagonista globale dell’AI.

Elon e Jensen accendono la corsa ai data center iperscalabili con Humain nel cuore dell’AI globale

Il video di Elon con la sua risata improvvisa, il contesto quasi surreale – un promemoria potente: anche ai confini dell’AI, un po’ di caos e ironia continuano a dominare la scena.

Ma dietro il sorriso, oggi si annuncia qualcosa di molto serio e strategico: Elon Musk insieme a Jensen Huang (il genio in camicia nera di Nvidia) hanno svelato un framework con HUMAIN per costruire data center GPU iperscalabili e a basso costo nel Regno dell’Arabia Saudita. Non si tratta di un giochetto: stiamo parlando di un’infrastruttura su vasta scala, con l’obiettivo di portare il modello Grok di xAI dentro HUMAIN ONE, la piattaforma agente di HUMAIN, per una distribuzione nazionale in Arabia Saudita.

Internet rotto e il giorno in cui la nostra AI è andata in blackout

Il paradosso più divertente è che ci siamo accorti di quanto dipendiamo dai nostri giocattoli digitali solo quando Cloudflare ha deciso di prendersi una pausa non richiesta. Il risultato è stato un silenzio improvviso, quasi teatrale, in cui l’infrastruttura internet ha mostrato quanto sia sottile la distanza tra onnipotenza percepita e fallibilità strutturale. La keyword centrale è Cloudflare outage e le correlate sono infrastruttura internet e centralizzazione digitale, un triangolo concettuale che merita più attenzione di quanta ne riceva quando tutto funziona. La rete globale si è fermata di colpo e con lei si è fermata la nostra capacità di produrre, comunicare, creare contenuti o fingere di essere super efficienti. È curioso notare come molti si siano trovati davanti allo schermo a chiedersi se ricordassero ancora come si scrive un testo senza un assistente virtuale. La risposta non è stata particolarmente rassicurante.

I giganti della tecnologia guardano allo spazio mentre l’energia per l’AI esplode

Quando si osserva la curva esponenziale dei consumi energetici dell’intelligenza artificiale, la sensazione è quella di assistere a un gigantesco paradosso moderno in cui la voglia di potenza finisce per scontrarsi con i limiti fisici del pianeta. L’impressione è che la Terra stessa stia diventando una sorta di data center sovraccarico, incapace di offrire la banda energetica necessaria a un’industria che cresce più velocemente della nostra capacità di generare elettricità. Attorno a questa orbita concettuale ruotano altre due espressioni emergenti, energia per l’AI e computazione orbitale, che stanno ridefinendo il dibattito strategico delle grandi compagnie tecnologiche.

Il potere dell’AI si scontra con la crisi energetica americana

L’intelligenza artificiale sta divorando elettroni. La nuova corsa all’oro digitale non è più frenata dai capitali o dai chip, ma dai megawatt. Mentre gli algoritmi riscrivono l’economia globale, gli Stati Uniti si scoprono vulnerabili: una superpotenza tecnologica con un’infrastruttura elettrica da era industriale. Negli ultimi mesi, interi data center costruiti con miliardi di dollari giacciono inattivi, in attesa di un semplice “via” dalla rete. Un caso emblematico è quello di un impianto californiano, a pochi chilometri dal quartier generale di Nvidia, che aspetta da sei anni la connessione alla linea ad alta tensione.

L’intelligenza artificiale divora anche l’hardware

L’intelligenza artificiale non si accontenta più delle GPU. Ora ha fame di tutto, perfino dei dischi. La nuova ondata di investimenti e addestramento di modelli generativi ha scatenato una crisi silenziosa nel mercato dello storage, dove la domanda esplosiva di capacità sta schiacciando la produzione globale di HDD e spingendo i data center a una corsa disperata verso le SSD QLC. Il risultato è un mix esplosivo di carenza, rialzi e isteria logistica che rischia di far impennare i prezzi al dettaglio in pochi mesi.

Microsoft inaugura la sua AI superfactory alimentata da centinaia di migliaia di GPU Nvidia

Quando una società con la portata della Microsoft decide di ridisegnare l’infrastruttura tecnologica globale, non è semplice evoluzione: è salto quantico. Ebbene Microsoft ha appena acceso ciò che chiama una “AI superfactory” una rete di data center interconnessi che ospita “centinaia di migliaia” di GPU NVIDIA, capace di mettere in moto modelli di IA di nuova generazione su scala planetaria.

Il progetto prende forma attraverso il nuovo sito “Fairwater” ad Atlanta (Georgia) che si collega al sito di Wisconsin, e altri nodi della rete Azure, in un’unica infrastruttura federata: l’obiettivo è trattare tutti questi cluster come un supercomputer globale, non come isolati “cloud farm”.

Google introduce private AI compute: la nuova frontiera della privacy nel cloud

Google ha appena alzato l’asticella dell’intelligenza artificiale privata, e lo ha fatto con un nome che suona quasi come un ossimoro: Private AI Compute. Una piattaforma che promette di unire la potenza dei modelli Gemini nel cloud con la stessa sicurezza che finora era prerogativa dell’elaborazione on-device. In altre parole, Google vuole farci credere che l’AI possa essere allo stesso tempo iperconnessa e completamente privata. Ambizioso, forse anche provocatorio.

Microsoft cancella 200 MW di AI Data Centers

Microsoft rimane uno dei protagonisti dominanti nella corsa all’infrastruttura AI, ma le sue decisioni recenti suggeriscono che ha deciso di imprimere un freno selettivo non un arresto totale. La società ha confermato l’impegno a spendere circa 80 miliardi di dollari in infrastrutture AI nel corso del suo anno fiscale 2025, includendo data center e relative componenti infrastrutturali.

Nei confronti dei cancellamenti, Microsoft ha adottato una posizione cauta: in molte comunicazioni dichiara che “potrebbe rallentare o aggiustare l’infrastruttura in alcune aree”, ma che rimane forte l’intenzione di crescita globale.

Un cambio di paradigma nell’architettura cloud dell’AI

OpenAI ha firmato un contratto settennale da 38 miliardi di dollari con AWS per assorbire “centinaia di migliaia” di GPU Nvidia nei prossimi anni. Entro fine 2026 tutta la capacità sarà operativa, con margine per espansione nel 2027 e oltre.

Questo significa che OpenAI smette (o quantomeno riduce fortemente) la sua dipendenza esclusiva da Microsoft Azure, superando quel “diritto di prelazione” che Microsoft ancora deteneva. Il legame con Microsoft non scompare: OpenAI ha un nuovo accordo vincolato fino al raggiungimento dell’AGI, e impegni d’acquisto per 250 miliardi di servizi Azure restano sul tavolo.

OpenAI e Oracle lanciano un’espansione significativa del progetto Stargate nel Michigan

Quando il futuro diventa mattoncino di silicio
OpenAI ha annunciato che costruirà nel Michigan, in Saline Township, un campus dati da oltre 1 gigawatt come parte dell’espansione Stargate in partnership con Oracle e uno sviluppatore immobiliare, Related Digital. L’obiettivo dichiarato è arrivare combinando questo sito con gli altri già in cantiere a più di 8 GW di capacità distribuiti su sette locazioni statunitensi e a un impegno complessivo che supera i 450 miliardi di dollari nei prossimi tre anni.

Amazon inaugura Project Rainier, il data center da 11 miliardi di dollari per l’intelligenza artificiale di Anthropic

Amazon ha acceso i motori del suo nuovo colosso dell’intelligenza artificiale. Project Rainier, annunciato per la prima volta nel dicembre 2024 e ora ufficialmente operativo in Indiana, è un data center da 11 miliardi di dollari che segna una svolta nella corsa ai modelli generativi. L’obiettivo è chiaro: fornire la potenza di calcolo necessaria ad Anthropic, la società di IA generativa dietro Claude, che molti analisti ormai considerano l’unico vero rivale strutturale di OpenAI.

AMD accelera la supercomputazione americana con Lux e Discovery da 1 miliardo di dollari

Nel cuore del Tennessee, all’Oak Ridge National Laboratory (ORNL), si sta preparando una rivoluzione digitale che potrebbe ridefinire il futuro dell’intelligenza artificiale e della supercomputazione. AMD, in collaborazione con il Dipartimento dell’Energia degli Stati Uniti (DOE), Hewlett Packard Enterprise (HPE) e Oracle, ha siglato un accordo da 1 miliardo di dollari per sviluppare due supercomputer all’avanguardia: Lux e Discovery. Questi sistemi non sono solo macchine potenti; sono la spina dorsale di un’infrastruttura AI sovrana progettata per accelerare la ricerca scientifica, l’innovazione energetica e la sicurezza nazionale.

Nvidia e Deutsche Telekom preparano un data center da 1 miliardo di euro in Germania per l’intelligenza artificiale europea

Nvidia e Deutsche Telekom stanno per lanciare un progetto da 1 miliardo di euro in Germania, un’infrastruttura mastodontica destinata a diventare il cuore pulsante dell’intelligenza artificiale europea. Secondo quanto riportato da Bloomberg, il nuovo data center sarà realizzato a Monaco e impiegherà circa 10.000 GPU di ultima generazione, il tipo di chip che oggi muove l’intero ecosistema dell’AI generativa. Una cifra che non è solo un investimento tecnologico, ma un messaggio geopolitico: l’Europa non vuole restare spettatrice nella corsa globale all’intelligenza artificiale.

Google spinge il gas con cattura: un rischio calcolato o salto nel baratro?

Google ha appena annunciato un passo che sembra quasi una contraddizione in termini: finanziare una centrale a gas con cattura e stoccaggio del carbonio (CCS) per alimentare i propri data center, sostenendo così la crescita dell’intelligenza artificiale ma, allo stesso tempo, cercando di restare “verde”. Il progetto, chiamato Broadwing Energy, sorgerà a Decatur, Illinois, e Google si impegna ad acquistare la maggior parte dell’energia prodotta. Il salto è audace e carico di ambiguità.

Alibaba lancia Aegaeon e riduce l’uso di GPU Nvdia dell’82 per cento

Alibaba Group Holding ha appena scosso il mondo dell’intelligenza artificiale e del cloud computing con l’annuncio di Aegaeon, un sistema di pooling computazionale che promette di rivoluzionare il modo in cui le GPU vengono utilizzate per servire modelli di AI su larga scala. Secondo quanto riportato in un paper presentato al 31° Symposium on Operating Systems Principles a Seoul, il nuovo sistema ha permesso di ridurre il numero di GPU Nvidia H20 necessarie per gestire decine di modelli fino a 72 miliardi di parametri da 1.192 a soli 213 unità, un taglio impressionante dell’82 per cento. La beta di Aegaeon è stata testata per oltre tre mesi nel marketplace di modelli di Alibaba Cloud, evidenziando come la gestione delle risorse sia stata tradizionalmente inefficiente.

Colosso da 40 miliardi: BlackRock, Nvidia e xAI uniscono le forze per rivoluzionare i data center dell’AI

Un consorzio di investimento che include BlackRock, Global Infrastructure Partners e il fondo MGX di Abu Dhabi ha concluso un accordo da 40 miliardi di dollari per l’acquisizione di uno dei maggiori operatori di data center al mondo, lanciando un’iniziativa volta a sostenere le infrastrutture per l’intelligenza artificiale.

La Cina avvia la costruzione di un supercomputer orbitale

Se Jeff Bezos ha annunciatola scorsa settiman all Italian Tech WeeK l’intenzione di lanciare data center nello spazio, la proposta dei ricercatori cinesi va oltre: immaginano un’infrastruttura satellitare globale condivisa, alimentata dall’intelligenza artificiale, per offrire servizi in tempo reale a tutti gli abitanti della Terra, evitando il sovraffollamento pericoloso dello spazio.

Il contesto della “domanda che sorpassa l’offerta” nei data center

Una delle tendenze più evidenti del mercato infrastrutturale digitale è che la domanda spinta da intelligenza artificiale, elaborazione in cloud e generative AI sta crescendo con velocità che mette sotto pressione la capacità infrastrutturale disponibile. Secondo il report Global Data Center Trends 2025 di CBRE, “demand continues to outpace new supply” nei principali hub mondiali, e il tasso di vacanza medio dei data center è sceso a circa 6,6 %, con strette particolarmente acute nei cluster di potenza e nelle zone core.

Ma cosa significa “domanda che sorpassa capacità” in concreto? Significa che i provider iperscalatori (Microsoft, Amazon, Google, etc.) e i grandi clienti enterprise stanno correndo a prenotare spazi e potenza molto prima che le strutture siano costruite; molti progetti vengono “preleased”cioè venduti in anticipo — e le tempistiche di consegna si estendono oltre il 2027, spesso per vincoli sull’energia, permessi, interconnessioni e forniture.

Stanco dei mal di testa del cloud per l’AI? Skypilot AI potrebbe diventare il tuo migliore alleato

SkyPilot

Chi lavora con l’intelligenza artificiale sa bene che il vero nemico non è la complessità degli algoritmi, ma la giungla del cloud. GPU introvabili, YAML che sembrano scritti in sanscrito, costi che esplodono senza preavviso e cluster Kubernetes che si comportano come teenager capricciosi. È il grande paradosso dell’AI moderna: mentre i modelli diventano sempre più sofisticati, l’infrastruttura che dovrebbe sostenerli diventa un campo minato. È qui che entra in gioco SkyPilot AI, un progetto che sta iniziando a far rumore tra sviluppatori, ricercatori e team DevOps che non ne possono più di combattere ogni giorno contro la burocrazia tecnologica del cloud.

Serverless & Cloud trends 2025 Report

Quando parlo di “trend 2025”, non mi riferisco a vanterie da blog tecnico: intendo tendenze che domineranno budget plurimilionari, evoluzioni che ridefiniranno architetture, responsabilità e vantaggi competitivi. E sì, lo faccio anche con numeri perché senza cifre, è solo narrativa.

La parola chiave rimane mobilità dei workload. Nel 2025, la migrazione “fissa” è morta. Le aziende vedranno la nuvola non come una destinazione ma come un ecosistema fluido: sposteranno carichi da on-prem a cloud, tra cloud diversi, o li modernizzeranno dove già risiedono.

La cina affonda i data center nell’oceano: la scommessa estrema per raffreddare l’intelligenza artificiale

Il cuore pulsante della rete mondiale non è etereo come ci piace immaginarlo. Ogni click, ogni query su ChatGPT o ogni video in streaming brucia elettricità in enormi capannoni metallici che chiamiamo data centre. Quei templi dell’informazione che divorano energia come vecchie locomotive a carbone sono diventati il tallone d’Achille della digitalizzazione. In Cina qualcuno ha deciso di portare la questione a un nuovo livello, o meglio, a una nuova profondità: un pod di server verrà immerso al largo di Shanghai, con la pretesa di trasformare l’oceano nel più grande sistema di raffreddamento gratuito della storia tecnologica.

The windswept AI gamble: Ellendale e la megafabbrica che sfida la ragione

Ellendale, North Dakota, non è mai stata famosa per i suoi grattacieli. Due motel, un Dollar General, un istituto pentecostale: questo era prima che entrasse in gioco la febbre dell’“AI factory”. Oggi sorgerà una struttura capace di ospitare migliaia di GPU, con costi che si aggirano nella fascia dei miliardi. È un azzardo che sembra scritto da chi crede davvero che l’intelligenza artificiale sia la prossima rivoluzione industriale. Ma il rischio è che Ellendale diventi l’epicentro e non il coronamento di una bolla.

Alibaba cloud e Nvidia rafforzano la scommessa sull’embodied AI, tra robot umanoidi e infrastruttura AI

L’intelligenza artificiale senza corpo è già abbastanza spaventosa per molti, ma quella incarnata in robot e macchine autonome tocca corde molto più profonde, quasi primordiali. Alibaba Cloud e Nvidia hanno deciso di cavalcare proprio questa frontiera, annunciando a Hangzhou l’integrazione degli strumenti di embodied AI del gigante statunitense dei semiconduttori nella piattaforma cloud della società cinese. Una partnership che non sorprende nessuno, ma che racconta molto sul futuro che si sta disegnando sotto i nostri occhi, spesso più in fretta di quanto i regolatori possano leggere i documenti che loro stessi producono.

Huawei Atlas 950 e la corsa al supercomputer AI: il colosso cinese contro Nvidia e xAI

Huawei ha deciso di alzare la posta. Non parliamo di un nuovo smartphone da scaffale, ma di una dichiarazione di guerra tecnologica che arriva da Shanghai con il peso di milioni di transistor. Il protagonista è l’Huawei Atlas 950, la nuova arma che il colosso cinese schiera per dominare la scena del supercomputer AI e trasformare il concetto stesso di potenza computazionale. Siamo di fronte a un momento che definire storico non è un’iperbole, perché ridisegna gli equilibri globali tra Pechino, Silicon Valley e il regno visionario di Elon Musk.

META platforms pronta a spostare l’intelligenza artificiale sul cloud di Oracle in un accordo da 20 miliardi di dollari

Quando Meta Platforms decide di fare shopping tecnologico, il mercato non resta mai indifferente. La notizia che il colosso guidato da Mark Zuckerberg starebbe valutando un accordo pluriennale con Oracle per utilizzare i suoi servizi cloud nella formazione e nel deployment dei modelli di intelligenza artificiale ha già fatto salire il titolo Oracle del 4 per cento in una singola seduta.

Bloomberg ha parlato di un’intesa potenziale da circa 20 miliardi di dollari, ancora in fase di discussione ma sufficiente a scatenare speculazioni, entusiasmi e, naturalmente, l’ansia di chi teme che la geografia del potere tecnologico globale stia mutando sotto i nostri occhi.

Microsoft Fairwater Wisconsin: la corsa al Data Center AI più potente del mondo

Microsoft Fairwater Wisconsin non è un nome che evoca poesia, ma piuttosto acciaio, cavi sotterranei e flussi di corrente elettrica che potrebbero alimentare una città di medie dimensioni. Il progetto da 3,3 miliardi di dollari in costruzione a Mount Pleasant, con un gemello da 4 miliardi già annunciato, rappresenta la trasformazione della campagna americana in un epicentro di calcolo per l’intelligenza artificiale. Non si tratta più di server farm come quelle che ospitavano il vecchio internet fatto di pagine statiche e banner pubblicitari, qui parliamo di un’infrastruttura concepita per addestrare i modelli AI più complessi del pianeta, a partire da quelli di OpenAI, fino a diventare la spina dorsale delle stesse operazioni Microsoft.

Amazon realizzerà doppio Data Center a Milano

Milano continua a brillare come hub tecnologico, ma questa volta lo fa sotto l’ombra di una colonizzazione digitale. Amazon è pronta a realizzare un doppio data center tra Rho e Pero, con un investimento da oltre 750 milioni di euro, mentre il governo italiano firma il decreto di Via il 10 settembre 2025. Il progetto è dichiarato di interesse strategico nazionale, ma il paradosso è evidente: infrastrutture critiche per la sovranità digitale italiana affidate a un colosso straniero. La procedura di Valutazione di Impatto Ambientale si è chiusa positivamente, ma resta il nodo della dipendenza tecnologica.

Mentre l’Italia approva DDL su AI, il Regno Unito costruisce fabbriche di GPU come se fossero miniere d’oro

Il paradosso è servito. Da una parte il Parlamento italiano che discute con toni solenni un disegno di legge sull’intelligenza artificiale, con la tipica liturgia normativa che somiglia più a un esercizio accademico che a una strategia industriale. Dall’altra parte il Regno Unito che, senza troppe cerimonie, annuncia con NVIDIA e i suoi partner la più massiccia operazione di rollout infrastrutturale AI della sua storia: fino a 120.000 GPU Blackwell Ultra, 11 miliardi di sterline in data center, supercomputer in arrivo e persino un progetto battezzato Stargate UK. Non è un dettaglio, è la fotografia plastica di come due paesi affrontano la cosiddetta AI industrial revolution. Da un lato la politica che si concentra su cornici etiche, dall’altro il capitalismo anglosassone che usa GPU come mattoni per costruire la sovranità digitale.

Oracle rivoluziona le risorse umane con agenti ai integrati in Fusion Cloud HCM

La notizia arriva come un colpo secco per chi ancora pensa che l’intelligenza artificiale nelle risorse umane sia un lusso futuristico o un gadget costoso. Oracle, gigante con oltre 45 anni di esperienza tecnologica, presenta oggi una nuova generazione di agenti AI integrati nella suite Fusion Cloud HCM, capaci di gestire l’intero ciclo di vita dei dipendenti, dalla selezione al pensionamento, senza alcun costo aggiuntivo per i clienti. Il messaggio è chiaro: l’AI non è più un’opzione, ma una componente intrinseca di qualsiasi strategia HR moderna.

Investimento Microsoft UK per AI

Microsoft ha dichiarato che investirà $30 miliardi (≈ £22 miliardi) nel Regno Unito nel periodo 2025-2028 per potenziare infrastruttura AI e operazioni correnti. (vedi The Official Microsoft Blog)

Di questi, circa $15 miliardi sono destinati a capital expenditures (“capex”) per costruire infrastruttura cloud/AI, in particolare un supercomputer con oltre 23.000 GPU NVIDIA, in partnership con la società britannica Nscale.

Il resto (gli altri ~$15 miliardi) serve a sostenere le operazioni correnti nel Regno Unito: forza lavoro (~6.000 dipendenti), data centre esistenti, ricerca, sviluppo, supporto clienti, e attività varie distribuite sul territorio.

La corsa ai chip per intelligenza artificiale e il futuro delle GPU e TPU

Il mondo dell’intelligenza artificiale sta vivendo una fase di accelerazione vertiginosa, con hardware specializzato che definisce la capacità reale di un modello di incidere sul mercato. Parliamo di GPU e TPU, non di semplici acceleratori, ma di macchine che decidono chi sopravvive nel panorama delle grandi LLM. Meta con Llama4 e DeepSeek ha dimostrato quanto il deployment su infrastrutture di Google Cloud non sia più un’opzione sperimentale ma uno standard riproducibile, benchmarkabile e, soprattutto, economicamente misurabile.

Deploying Llama4 e DeepSeek sui cosiddetti AI Hypercomputer di Google Cloud è un esercizio di precisione chirurgica. Non basta avere una GPU A3 o un TPU Trillium, serve orchestrare cluster multi-host, convertire checkpoint dei modelli, gestire la logistica della memoria distribuita e ottimizzare inference con motori come JetStream e MaxText. Il bello è che Google pubblica ricette open source per riprodurre tutto, quasi un invito a fare benchmarking casalingo, senza dover reinventare la ruota. Chi ha provato MoE, Mixture of Experts, sa che la complessità aumenta esponenzialmente ma anche l’efficienza di inferenza se gestita correttamente. Pathways diventa la bacchetta magica per orchestrare distribuzioni massive, e non parlo solo di numeri ma di gestione intelligente delle pipeline.

Data Center UK: il nuovo terreno di conquista di OpenAI e Nvidia

La geopolitica dell’intelligenza artificiale si è trasformata in una questione di megawatt e metri quadri di cemento raffreddato a liquido. Non si parla più di algoritmi e modelli come semplice leva competitiva, ma di chi possiede i data center UK più potenti e vicini al cuore finanziario europeo. Ed è qui che entrano in scena Sam Altman e Jensen Huang, rispettivamente volto e regista di due colossi come OpenAI e Nvidia, pronti a promettere miliardi di dollari di investimenti nel Regno Unito. Una mossa che arriva non a caso in sincronia con la visita di Donald Trump, trasformando Londra e dintorni nel palcoscenico preferito per dimostrare potenza tecnologica e influenza politica.

Da The New Yorker

Neuromorphic Computing: la rivoluzione silenziosa contro il dominio GPU

Nvidia fa marcia indietro sul cloud e lascia la scena ad AWS

Nvidia cloud. Suona bene, quasi come una dichiarazione di guerra, e infatti per un attimo sembrava che Jensen Huang fosse pronto a sfidare Jeff Bezos sul suo stesso terreno. Il progetto DGX Cloud era stato presentato come l’alternativa premium, l’oasi GPU-centrica dentro l’arida prateria dei cloud generalisti. Ma la realtà, come sempre, è meno poetica. Nvidia ha deciso di tirare il freno a mano. Non che chiuda il baraccone, sia chiaro, ma smette di fare la concorrenza frontale ad AWS e ai suoi cugini Microsoft e Google.

Una ritirata elegante, raccontata come “scelta strategica di collaborazione”. Tradotto dal gergo corporate: abbiamo visto che stava diventando un suicidio.Il motivo è quasi banale. Nvidia vive vendendo i suoi chip a quelli che avrebbe dovuto combattere. AWS, Microsoft Azure, Google Cloud. Non semplici clienti, ma clienti colossali che comprano in blocco l’intero arsenale di GPU H100 e presto Blackwell.

Fare la concorrenza a chi ti paga i conti significa mordere la mano che ti nutre. Huang è spavaldo, ma non stupido. Meglio ammorbidire il gioco, vendere tonnellate di silicio e lasciare che siano gli altri a sobbarcarsi il lavoro sporco di gestire data center, SLA e clienti insoddisfatti alle tre di notte.

OpenAI e Oracle: il contratto da 300 miliardi che riscrive il mercato del cloud

La notizia è semplice ma distruttiva per le vecchie abitudini del mercato tecnologico: OpenAI avrebbe firmato un accordo con Oracle per acquistare 300 miliardi di dollari in potenza di calcolo su un orizzonte di circa cinque anni, uno degli acquisti cloud più vasti mai registrati su scala industriale. Questo non è un esercizio di iperbole finanziaria, ma la costruzione concreta di una dipendenza infrastrutturale che rimodella rapporti di forza, dinamiche di costo e leve geopolitiche intorno all’intelligenza artificiale.

Questo accordo si innesta dentro un progetto più ampio che ormai ha un nome quasi mitologico: Project Stargate, la scommessa di OpenAI, Oracle e altri partner per costruire nuove capacità di data center che richiederanno fino a 4.5 gigawatt di potenza. La cifra è reale e impressionante, perché 4.5 gigawatt significano impianti su scala industriale che non si installano in un garage ma si progettano con ingegneria pesante, accordi energetici e permessi politici. Il comunicato congiunto e i documenti pubblici dell’iniziativa lo confermano.

Pagina 1 di 4

CC BY-NC-SA 4.0 DEED | Disclaimer Contenuti | Informativa Privacy | Informativa sui Cookie