Intelligenza Artificiale, Innovazione e Trasformazione Digitale

Categoria: Cloud e Data Center Pagina 1 di 4

Cloud, Storage, Software, Data Center

La corsa ai chip per intelligenza artificiale e il futuro delle GPU e TPU

Il mondo dell’intelligenza artificiale sta vivendo una fase di accelerazione vertiginosa, con hardware specializzato che definisce la capacità reale di un modello di incidere sul mercato. Parliamo di GPU e TPU, non di semplici acceleratori, ma di macchine che decidono chi sopravvive nel panorama delle grandi LLM. Meta con Llama4 e DeepSeek ha dimostrato quanto il deployment su infrastrutture di Google Cloud non sia più un’opzione sperimentale ma uno standard riproducibile, benchmarkabile e, soprattutto, economicamente misurabile.

Deploying Llama4 e DeepSeek sui cosiddetti AI Hypercomputer di Google Cloud è un esercizio di precisione chirurgica. Non basta avere una GPU A3 o un TPU Trillium, serve orchestrare cluster multi-host, convertire checkpoint dei modelli, gestire la logistica della memoria distribuita e ottimizzare inference con motori come JetStream e MaxText. Il bello è che Google pubblica ricette open source per riprodurre tutto, quasi un invito a fare benchmarking casalingo, senza dover reinventare la ruota. Chi ha provato MoE, Mixture of Experts, sa che la complessità aumenta esponenzialmente ma anche l’efficienza di inferenza se gestita correttamente. Pathways diventa la bacchetta magica per orchestrare distribuzioni massive, e non parlo solo di numeri ma di gestione intelligente delle pipeline.

Data Center UK: il nuovo terreno di conquista di OpenAI e Nvidia

La geopolitica dell’intelligenza artificiale si è trasformata in una questione di megawatt e metri quadri di cemento raffreddato a liquido. Non si parla più di algoritmi e modelli come semplice leva competitiva, ma di chi possiede i data center UK più potenti e vicini al cuore finanziario europeo. Ed è qui che entrano in scena Sam Altman e Jensen Huang, rispettivamente volto e regista di due colossi come OpenAI e Nvidia, pronti a promettere miliardi di dollari di investimenti nel Regno Unito. Una mossa che arriva non a caso in sincronia con la visita di Donald Trump, trasformando Londra e dintorni nel palcoscenico preferito per dimostrare potenza tecnologica e influenza politica.

Da The New Yorker

Neuromorphic Computing: la rivoluzione silenziosa contro il dominio GPU

Nvidia fa marcia indietro sul cloud e lascia la scena ad AWS

Nvidia cloud. Suona bene, quasi come una dichiarazione di guerra, e infatti per un attimo sembrava che Jensen Huang fosse pronto a sfidare Jeff Bezos sul suo stesso terreno. Il progetto DGX Cloud era stato presentato come l’alternativa premium, l’oasi GPU-centrica dentro l’arida prateria dei cloud generalisti. Ma la realtà, come sempre, è meno poetica. Nvidia ha deciso di tirare il freno a mano. Non che chiuda il baraccone, sia chiaro, ma smette di fare la concorrenza frontale ad AWS e ai suoi cugini Microsoft e Google.

Una ritirata elegante, raccontata come “scelta strategica di collaborazione”. Tradotto dal gergo corporate: abbiamo visto che stava diventando un suicidio.Il motivo è quasi banale. Nvidia vive vendendo i suoi chip a quelli che avrebbe dovuto combattere. AWS, Microsoft Azure, Google Cloud. Non semplici clienti, ma clienti colossali che comprano in blocco l’intero arsenale di GPU H100 e presto Blackwell.

Fare la concorrenza a chi ti paga i conti significa mordere la mano che ti nutre. Huang è spavaldo, ma non stupido. Meglio ammorbidire il gioco, vendere tonnellate di silicio e lasciare che siano gli altri a sobbarcarsi il lavoro sporco di gestire data center, SLA e clienti insoddisfatti alle tre di notte.

OpenAI e Oracle: il contratto da 300 miliardi che riscrive il mercato del cloud

La notizia è semplice ma distruttiva per le vecchie abitudini del mercato tecnologico: OpenAI avrebbe firmato un accordo con Oracle per acquistare 300 miliardi di dollari in potenza di calcolo su un orizzonte di circa cinque anni, uno degli acquisti cloud più vasti mai registrati su scala industriale. Questo non è un esercizio di iperbole finanziaria, ma la costruzione concreta di una dipendenza infrastrutturale che rimodella rapporti di forza, dinamiche di costo e leve geopolitiche intorno all’intelligenza artificiale.

Questo accordo si innesta dentro un progetto più ampio che ormai ha un nome quasi mitologico: Project Stargate, la scommessa di OpenAI, Oracle e altri partner per costruire nuove capacità di data center che richiederanno fino a 4.5 gigawatt di potenza. La cifra è reale e impressionante, perché 4.5 gigawatt significano impianti su scala industriale che non si installano in un garage ma si progettano con ingegneria pesante, accordi energetici e permessi politici. Il comunicato congiunto e i documenti pubblici dell’iniziativa lo confermano.

Nvidia e la corsa ai data center da gigawatt: il futuro dell’infrastruttura AI

Quando Nvidia pubblica un bilancio che fa girare la testa agli investitori, non stiamo parlando di numeri da “cresciuto un po’”. Stiamo parlando di cifre che riscrivono la geografia economica dell’intelligenza artificiale. Jensen Huang, CEO della società, ha lanciato un’indicazione chiara: un singolo data center AI da un gigawatt costerà circa 50 miliardi di dollari. Di quei 50 miliardi, 35 miliardi finiranno nelle casse di Nvidia sotto forma di hardware, lasciando il resto per sistemi complementari. Non sono più i classici megawatt che si spostano con calma nei bilanci aziendali; qui parliamo di gigawatt, di super-fabbriche AI che potrebbero moltiplicare i costi e, ovviamente, i profitti di Nvidia.

OpenAI non sta giocando piccolo. Bloomberg ha riportato che l’azienda sta esplorando partnership in India per costruire un data center da un gigawatt e allo stesso tempo programma strutture simili negli Stati Uniti e in altre regioni globali. Tradotto in soldoni, se le stime di Nvidia reggono, il piano di OpenAI potrebbe tradursi in centinaia di miliardi di dollari destinati all’infrastruttura AI. Non è fantascienza, è capitalismo su scala industriale spinto dall’intelligenza artificiale.

Nebius e il nuovo gioco di potere nei Data Center AI

La scena è questa: un titolo poco noto come Nebius, capitalizzazione di mercato di circa 15 miliardi di dollari, annuncia che affitterà GPU Nvidia a Microsoft con un contratto pluriennale da 17,4 miliardi fino al 2031. Le azioni schizzano del 40% nell’after hours, gli investitori esultano e il settore dei data center AI prende nota. Non è soltanto la storia di un accordo, è la dimostrazione plastica di come si stia ridisegnando la geografia del potere tecnologico. Microsoft non compra, Microsoft affitta. Scarica il rischio, come fa da tempo con CoreWeave, e mette Nebius in prima fila nella corsa globale alle GPU.

Data center: da “consumatori energivori” a motori di decarbonizzazione e crescita

I data center non sono solo i pilastri della trasformazione digitale: se integrati con il sistema energetico, possono diventare alleati nella decarbonizzazione delle città. È questa la chiave di lettura che Renato Mazzoncini, Amministratore Delegato di A2A, ha proposto al Forum TEHA di Cernobbio, dove è stato presentato uno studio sul ruolo strategico di queste infrastrutture in Italia.

Data Center, da costo a motore di crescita. Studio TEHA: come l’Italia può trasformare l’energia digitale in PIL e sostenibilità

I data center non sono più soltanto “fabbriche di bit”: se guidati da una visione strategica, possono diventare leve di competitività, occupazione e sostenibilità per l’Italia. È quanto emerge dal Position Paper “L’Italia dei data center. Energia, efficienza, sostenibilità per la transizione digitale”, presentato al Forum di Cernobbio da TEHA Group in collaborazione con A2A. Secondo lo studio, lo sviluppo del settore potrebbe contribuire dal 6% al 15% della crescita annuale del PIL nazionale, abilitando fino a 150.000 nuovi posti di lavoro tra diretti, indiretti e indotti. Numeri che confermano come i data center siano ormai infrastrutture strategiche, indispensabili per sostenere la diffusione di AI, IoT e cloud computing.

L’industria tech sotto accusa: la NAACP lancia l’allarme per i nuovi data center

L’industria tecnologica statunitense è stata messa “in allerta” dalla NAACP, una delle principali organizzazioni per i diritti civili negli Stati Uniti, che ha lanciato un appello alle comunità locali affinché chiedano maggiore responsabilità alle aziende che costruiscono nuovi data center. La domanda di elettricità negli Stati Uniti sta crescendo per la prima volta in quasi due decenni, in gran parte a causa della costruzione di massicci data center destinati a supportare i progressi nell’intelligenza artificiale. Le utility e alcune aziende tecnologiche stanno sempre più soddisfacendo questa domanda con combustibili fossili, peggiorando la qualità dell’aria e aggravando la crisi climatica, spingendo la NAACP a emettere “principi guida” per aiutare i membri delle comunità locali a opporsi.

Consumi data center: tra mito energetico e realtà industriale italiana

Chi grida all’apocalisse energetica dei data center in Italia punta più al palcoscenico che ai bilanci. C’è chi sventola scenari da decine di gigawatt come se l’intera dorsale elettrica nazionale fosse a disposizione di capannoni ronzanti piazzati da Bolzano a Pachino. La realtà, spietata e poco glamour, è che il mercato digitale italiano cresce a passo breve, l’accesso alla rete non è una formalità e la matematica finanziaria non perdona. Gli scenari sereni fanno vendere meno clic, ma aiutano a non sbagliare investimenti. Secondo le stime più solide sul mercato digitale tracciate da Anitec-Assinform, l’Italia ha chiuso il 2024 con 81,6 miliardi di euro e una crescita del 3,7 per cento, con proiezioni nell’ordine del 3,3-4 per cento medio annuo nei prossimi anni. Un’espansione reale, ma ben lontana dal raddoppio che servirebbe a giustificare una corsa a carico base di dieci gigawatt dedicati solo all’infrastruttura di calcolo. Non è un’opinione, è un denominatore.

Un fatto scomodo per i profeti dei 50 gigawatt è che il parco installato italiano non è una nebulosa insondabile. La fotografia 2024 più citata dagli operatori parla di circa 513 megawatt di potenza IT attiva nel Paese, di cui 238 nell’area milanese, con pipeline in crescita ma tutt’altro che esponenziale. È la dimensione di un mercato che funziona, non di un meteorite in rotta di collisione. Per chi si nutre di iperboli, è una doccia fredda. Per chi deve allocare capitale, è la base su cui costruire casi d’uso sostenibili.

Lambda vs Coreweave: la nuova bolla di potenza computazionale che vuole conquistare Wall Street

La corsa all’oro dell’intelligenza artificiale non riguarda più gli algoritmi o le applicazioni visibili al consumatore, ma la parte che pochi vogliono raccontare: il potere nascosto dell’infrastruttura. Qui si muovono nomi che fino a ieri sarebbero sembrati destinati a restare in un’oscura nicchia di “GPU rental”, ma che oggi sono in procinto di diventare i nuovi padroni dell’economia digitale. Lambda, il provider di cloud AI che affitta potenza di calcolo come fosse petrolio, ha deciso di seguire le orme di CoreWeave, rivale già iperattivo, e sta preparando il suo ingresso in borsa con un IPO da manuale, orchestrata da banche d’affari che non sbagliano mai quando si tratta di fiutare margini. Morgan Stanley, J.P. Morgan e Citi non si muovono a caso, e se hanno messo il timbro è perché hanno intravisto il prossimo big bang della finanza tech.

OpenAI in India: il mega data center da 1 gigawatt che cambierà l’Asia dell’intelligenza artificiale

OpenAI sta preparando una mossa strategica che potrebbe ridefinire il panorama dell’intelligenza artificiale in Asia: la costruzione di un data center in India con una capacità di almeno 1 gigawatt. Questo progetto, parte dell’iniziativa “Stargate”, mira a consolidare la posizione dell’azienda nel secondo mercato mondiale per numero di utenti di ChatGPT, dopo gli Stati Uniti.

Sovranità digitale europea: tra teatro e realtà

Microsoft ci ha appena dato una lezione magistrale di finzione tecnologica. Il suo nuovo servizio cloud “solo UE” promette la luna: dati europei custoditi in centri dati europei, personale locale a monitorare ogni accesso, tutto sotto un tappeto di log e monitoraggio costante. Sulla carta, perfetto. Nella realtà, un bluff gigantesco. Durante un’audizione al Senato francese sul tema della sovranità digitale, Anton Carniaux, direttore degli affari pubblici e legali di Microsoft Francia, ha dichiarato sotto giuramento ciò che tutti sospettavano: non può garantire che i dati dei cittadini francesi siano al sicuro dall’accesso del governo statunitense. Letale per il mito del cloud sovrano. La cruda verità è questa: anche con data center in Europa e personale europeo, la piattaforma resta soggetta alla legge americana.

Meta’s $50 Billion AI Data Center in Louisiana

Meta ha deciso di investire 50 miliardi di dollari in un nuovo centro dati AI in Louisiana, denominato Hyperion. Questa cifra è stata annunciata dal presidente Donald Trump durante una riunione del gabinetto, dove ha mostrato un’immagine del progetto sovrapposto a Manhattan, evidenziando la sua vasta scala. In precedenza, Meta aveva stimato un investimento di oltre 10 miliardi di dollari per questa struttura.

Hyperion sarà il centro dati più grande di Meta, progettato per supportare le sue ambizioni nel campo dell’intelligenza artificiale. La struttura avrà una capacità iniziale di 2 gigawatt, con piani di espansione fino a 5 gigawatt. Per alimentare questa enorme capacità, Entergy Louisiana ha ricevuto l’approvazione regolatoria per costruire tre impianti di generazione a turbina a ciclo combinato, che dovrebbero essere operativi tra il 2028 e il 2029.

Nvidia e la rivoluzione della silicon photonics nei supercluster di intelligenza artificiale

Chiunque abbia seguito Hot Chips 2025 ha capito subito che il messaggio di NVIDIA era diretto e provocatorio: il futuro dei supercluster di intelligenza artificiale non dipende più solo dalla potenza di calcolo delle GPU, ma dall’efficienza dei collegamenti che le uniscono. Lo chiamano Spectrum-X Ethernet Photonics ed è qualcosa che va oltre il semplice annuncio tecnologico. È una dichiarazione di guerra energetica, un nuovo asse strategico dove la silicon photonics smette di essere un esercizio da laboratorio e diventa il cuore pulsante delle reti AI. NVIDIA non si accontenta di dominare la GPU economy, ora vuole riscrivere le regole della connettività nei data center, colonizzando quella terra di nessuno dove finora si sono mossi timidamente Intel e AMD.

GPU SXM in cloud: la nuova era dell’accelerazione

Chi ancora pensa che il cloud sia solo un magazzino di VM a basso costo non ha capito che il gioco è cambiato. Le GPU SXM hanno ribaltato la logica stessa dell’infrastruttura. Non si tratta di schede video piazzate in un server per far girare qualche modello di machine learning, ma di architetture di calcolo pensate per riscrivere le regole della scalabilità. E il bello è che adesso le NVIDIA H100 e le nuovissime H200 in formato SXM sono disponibili nel cloud in configurazioni da 1×, 2×, 4× e 8×, tutte con NVLink sempre attivo, pronte a spingere i workload di AI e HPC in territori che fino a ieri sembravano fantascienza.

AWS how to build AI AGENTS in cloud native systems

Immagina di leggere un manuale che non è il solito whitepaper patinato con buzzword spalmate sopra come burro rancido, ma un manifesto che sembra scritto per anticipare un cambio di paradigma: quello in cui AWS vuole sostituire gli stack software tradizionali con sistemi agentici autonomi, interoperabili e, soprattutto, scalabili. È un documento che trasuda visione strategica più che retorica, con un tono che assomiglia a una dichiarazione di guerra alla logica monolitica dei software enterprise, e con un dettaglio tecnico che non lascia scampo a chi ancora si illude di poter governare il futuro con qualche patch su vecchie architetture legacy.

Meta e Google siglano un accordo cloud da oltre 10 miliardi: l’era dell’intelligenza artificiale su scala industriale

Meta ha appena siglato un mastodontico accordo con Google Cloud, un’intesa che sfiora i 10 miliardi di dollari su sei anni. Il cuore dell’operazione è chiaro: infrastrutture di calcolo “as‑a‑service” server, storage, networking e tutto il cabaret cloud necessario per sostenere la sua espansione nel campo dell’intelligenza artificiale.

Parliamo di oltre 10 miliardi di dollari in valore, un accordo senza precedenti nella storia di Google Cloud, uno dei più ingenti fino ad oggi. È il secondo colpo grosso per Google dopo quello con OpenAI, e mentre Ariana Grande canticchia “thank u, next”, i grandi magazzini AI fanno incetta di risorse.

Oracle investe $1 miliardo all’anno per un data center da 1,4 GW in Texas alimentato a gas: la corsa all’energia per l’era dell’AI

Oracle ha deciso di accelerare la sua strategia cloud focalizzata sull’intelligenza artificiale con un investimento da capogiro: la costruzione di un data center da 1,4 gigawatt a Abilene, in Texas, alimentato principalmente da gas naturale. Un progetto da 1 miliardo di dollari all’anno che riflette l’urgenza di scalare l’infrastruttura per l’IA e le sfide nel collegare strutture di tale portata alle reti elettriche tradizionali.

Il sito, noto come Lancium Clean Campus, è sviluppato in collaborazione con Crusoe Energy e si estende su 826 acri. È progettato per ospitare fino a 4,5 gigawatt di capacità computazionale, destinata principalmente a OpenAI. Questa espansione fa parte del progetto Stargate, che mira a potenziare l’infrastruttura per l’IA negli Stati Uniti. La scelta di alimentare il data center con generatori a gas è una risposta diretta alle lunghe attese per l’accesso alla rete elettrica, che possono richiedere anni.

Autopoiesis si allea con Oracle per potenziare la propria AI

Il mondo dell’intelligenza artificiale è un’arena di gladiatori. Da un lato i colossi come OpenAI, Anthropic, Google DeepMind e la miriade di startup che propongono chatbot come distributori automatici di frasi preconfezionate. Dall’altro emerge Joseph Reth, “un ventenne”che ha fondato Autopoiesis Sciences, rifiutando offerte milionarie per costruire un’AI rivoluzionaria. La sua visione è chiara: creare un’intelligenza artificiale che non si limiti a generare risposte, ma che ragioni, verifichi, riconosca gli errori e li dichiari apertamente. Un’AI destinata a diventare un partner epistemico della scienza, superando modelli come GPT-5 e Grok, e siglando una partnership strategica con Oracle per sfruttare un’infrastruttura cloud enterprise-grade, robusta e certificata.

Roo-Code: l’agente autonomo di coding alimentato dall’AI dentro VScode

Nel panorama in rapida evoluzione degli strumenti per sviluppatori, Roo-Code, precedentemente noto come Roo Cline, emerge come un protagonista audace. Non è semplicemente un’estensione di completamento automatico; è un agente autonomo di coding alimentato dall’intelligenza artificiale, integrato senza soluzione di continuità in Visual Studio Code. La promessa è chiara: trasformare il modo in cui scriviamo software, portando automazione intelligente, supporto multilingua e una gamma di funzionalità sperimentali direttamente all’interno del flusso di lavoro del developer.

Il nucleo di Roo-Code è impressionante nella sua ambizione. Comprende istruzioni in linguaggio naturale, interagisce con file e cartelle nel workspace, esegue comandi nel terminale, automatizza azioni nei browser web e si integra con modelli AI compatibili con OpenAI come regolo.ai. Non si limita a suggerire frammenti di codice; propone soluzioni complete, adatte a un ciclo di sviluppo moderno e complesso. La capacità di creare personalità AI personalizzate tramite i Custom Modes aggiunge un livello di adattabilità che supera di gran lunga gli strumenti tradizionali, consentendo a Roo-Code di assumere ruoli specifici come QA engineer, architetto software o assistente di ricerca.

AI Cloud e il nodo cruciale dell’indipendenza tecnologica: priorità tra beni e servizi digitali

La dipendenza infrastrutturale in Europa è ormai un problema da codice rosso, quasi un dramma shakespeariano in chiave tecnologica. Nel mondo del cloud computing, la quasi totalità delle aziende europee si affida senza riserve a infrastrutture americane, con Amazon Web Services che detiene circa il 32% del mercato globale, seguito da Microsoft Azure con il 23% e Google Cloud Platform intorno al 11%, dati recenti di Synergy Research Group confermano questa distribuzione spietata. Questi numeri non sono soltanto statistiche: sono il riflesso di un controllo quasi totale su dati, servizi e infrastrutture critiche che influenzano quotidianamente la vita economica, sociale e politica del continente.

Variabilità delle prestazioni dei modelli GPT open weight a seconda dell’hosting

Il mondo dei modelli GPT open weight sta rapidamente diventando un terreno minato per chi pensa che “open” significhi prevedibile. Recenti osservazioni hanno mostrato come le prestazioni di questi modelli varino in modo significativo a seconda di chi li ospita. Azure e AWS, spesso percepiti come standard di riferimento affidabili, si collocano tra i peggiori nella scala delle performance, e questo non è un dettaglio marginale. Per chi considera il tuning dei prompt la leva principale per migliorare i risultati, la sorpresa sarà dolorosa: l’impatto dell’hosting supera di gran lunga quello della maggior parte delle ottimizzazioni sui prompt.

Ci sono aziende che spendono mesi a perfezionare il wording dei prompt, come se fossero poeti della logica, ignorando che l’infrastruttura sottostante potrebbe vanificare ogni sforzo. La verità è che differenze minime nella GPU, nelle versioni dei driver, nei layer di containerizzazione o nella latenza di rete possono determinare scostamenti drammatici in termini di accuratezza e velocità di risposta. Se stai utilizzando un modello per supportare decisioni critiche, dal trading algoritmico alla generazione automatica di codice, queste differenze diventano rischi reali, non astratti.

Coreweave tra crescita esplosiva e margini risicati: il paradosso del Cloud GPU

CoreWeave ha attirato l’attenzione di Wall Street con numeri che sembrano gridare “successo”: il fatturato è triplicato nell’ultimo anno, accompagnato da un backlog di ordini in aumento, segnale chiaro di una domanda che non accenna a rallentare. Eppure, nonostante l’euforia apparente, il quadro finanziario racconta una storia più complessa, quasi cinematografica, fatta di margini operativi compressi a un misero 2% rispetto al 20% dell’anno precedente e di perdite che continuano a mordere il bilancio. Gli investitori hanno reagito rapidamente: le azioni hanno perso il 10% nelle contrattazioni after-hours, una caduta che fotografa la paura di un futuro in cui la crescita senza profitto rischia di diventare un’illusione.

Legge delega Data Center: l’Italia rischia di preparare la tavola e lasciare che mangino altri

La scena è questa: il Parlamento discute di una legge delega sui data center e tutti annuiscono, con l’aria di chi finalmente affronta un problema urgente. Gli amministratori locali invocano da anni una normativa autorizzazioni data center chiara e uniforme, e la politica sembra voler rispondere. Sullo sfondo, una pioggia di miliardi: 37 annunciati nel 2024, 10 attesi solo tra 2025 e 2026. Sembra un’operazione chirurgica per far crescere l’economia digitale nazionale. Ma le operazioni chirurgiche, si sa, possono finire con il paziente più in ordine esteticamente ma in mani altrui.

Data Center o palazzinari digitali? la distopia del made in italy

La parola “Make in Italy” suona bene. È catchy, accattivante, quasi innocente. Ma nel contesto della legge delega in discussione alla Camera, che vorrebbe normare (anzi no, “attrarre investimenti stranieri” mascherati da data center), si trasforma in un cavallo di Troia retorico. Antonio Baldassarra, CEO di Seeweb, in una recente intervista a Key4biz non ci gira intorno: è come essere tornati negli anni Cinquanta, quando bastava un progetto edilizio per muovere capitali, solo che oggi i protagonisti non sono i palazzinari romani, ma quelli tecnologici, assetati di suolo, energia e semplificazioni normative. Il nuovo mattone digitale si chiama “hyperscale data center”. E la politica sembra aver già consegnato le chiavi.

OpenAI libera GPT-OSS-120b: altruismo, trappola o colonizzazione?

Marco Cristofanilli ci ha mostrato GPT-OSS-120B in azione su AMD MI300X, raggiungendo oltre 800 token al secondo. Un risultato notevole, soprattutto considerando che questo LLM è stato progettato per chip Nvidia. Potete provarlo in questi giorni: Regolo.AI rimane freemium ancora per poco.

La mossa di OpenAI con gpt-oss-120b e licenza Apache 2.0, suona meno come un atto di filantropia tecnologica e più come un colpo di biliardo a tre sponde. Un LLM di quella taglia, con prestazioni che si avvicinano ai top di gamma e con throughput da 800 token/sec su un MI300X, non è stato “liberato” per caso. Soprattutto se fino a ieri la narrativa ufficiale era quella di contenere il rilascio di modelli potenti per ragioni di sicurezza, costi e “alignment”.

OpenAI scommette sull’Europa: Stargate Norway e la corsa all’egemonia computazionale

Quando OpenAI lancia un nuovo progetto infrastrutturale, il mondo prende appunti. Quando lo fa in Europa, tra montagne scandinave e rigide regolamentazioni ambientali, c’è molto di più in gioco di qualche megawatt in più. Con l’annuncio di Stargate Norway, OpenAI lancia un segnale chiarissimo alla geopolitica del calcolo: il dominio dell’intelligenza artificiale non passa solo dai modelli, ma dai watt. Il contesto? Una guerra sotterranea per la sovranità computazionale europea, un’Europa che ha deciso che non vuole più giocare con server in leasing made in Silicon Valley. La scelta del partner, Nscale, startup britannica ambiziosa nel settore cloud AI, e dell’infrastruttura, progettata in tandem con Aker, gigante norvegese dell’energia industriale, non è casuale. Qui non si tratta di una semplice server farm: si tratta della prima “centrale sovrana” AI in terra europea con l’imprinting di OpenAI. Ma attenzione: Stargate Norway non è un progetto UE. È un’operazione parallela, un asse transatlantico nordico.

Foxconn e Teco alleati strategici per costruire la nuova geografia dei data center AI

Foxconn è stufa di essere vista come il braccio operaio di Apple. Non vuole più solo stringere bulloni per iPhone da 1.000 dollari e margini da fame. La direzione è tracciata: infrastruttura per l’intelligenza artificiale. Ed è una direzione con cui nessuno a Taipei vuole scherzare. Mercoledì è arrivato l’annuncio: una partnership strategica con Teco Electric & Machinery, il colosso taiwanese dei motori industriali, per entrare con forza nel mercato globale dei data center dedicati all’AI. Non in modo decorativo, ma strutturale, fisico, concreto. Come in “server rack”, “UPS”, “raffreddamento”, “infrastruttura elettrica”, “espansione planetaria”. Una dichiarazione di guerra, non un comunicato stampa.

L’intelligenza artificiale divora il Wyoming: quando un data center consuma più di uno stato

Non è fantascienza ma l’ennesima dimostrazione che il XXI secolo sarà alimentato non da democrazie ma da data center affamati di elettroni. Il Wyoming, stato noto per le praterie, i rodei e una densità abitativa più vicina alla Mongolia che a Manhattan, sta per essere risucchiato nel vortice dell’intelligenza artificiale. La notizia è di quelle che fanno saltare sulla sedia gli addetti ai lavori e i romantici delle rinnovabili: un campus di data center AI da 1.8 gigawatt, con potenziale espansione fino a 10 GW, sarà costruito vicino a Cheyenne. Per capirci: 1 GW può alimentare un milione di case. L’intera popolazione del Wyoming non arriva a 600.000 abitanti. Fate i conti.

Chi paga l’intelligenza artificiale? Big Tech, Carbone e la bufala della neutralità energetica

Chi paga il conto dell’intelligenza artificiale? Non chi la usa. Non chi la governa. Nemmeno chi la promuove con entusiasmo evangelico nei convegni. A pagarlo, lentamente ma inesorabilmente, sono le reti elettriche nazionali, le bollette dei consumatori e, incidentalmente, il pianeta. L’intelligenza artificiale, così come la intendono oggi i colossi tecnologici americani, è una macchina insaziabile alimentata da energia bruta, preferibilmente continua, modulabile e possibilmente prodotta da fonti che si possono accendere e spegnere a comando. In pratica: gas, carbone, nucleare. Il resto, cioè sole e vento, può accomodarsi fuori.

Sotto la patina patinata della “rivoluzione AI”, si nasconde un ritorno violento a modelli industriali ottocenteschi, con un’estetica da Silicon Valley e una politica energetica da Pennsylvania del 1910. A guidare questa distopia in Technicolor è una visione autoritaria della crescita, scritta con linguaggio da campagna elettorale e firmata da un ex presidente che sembra confondere deregolamentazione con innovazione. Trump, nel suo recente “AI Action Plan”, non ha semplicemente accelerato la realizzazione di data center. Ha spalancato la porta a una deregulation senza precedenti a favore di carbone, petrolio e “dispatchable power” un modo elegante per dire: tutto tranne l’energia rinnovabile.

La trasparenza energetica nell’intelligenza artificiale come nuovo asset strategico

Perché l’energia è il nuovo capitale dell’AI

La narrativa green nel mondo dell’intelligenza artificiale ha smesso di essere un vezzo da ufficio marketing per trasformarsi in un parametro di valutazione finanziaria. Nel 2025 l’energia è il nuovo capitale, e chi non riesce a rendicontarne l’uso con precisione è destinato a essere penalizzato da investitori, regolatori e in prospettiva dagli stessi clienti enterprise. La pressione ESG ha spostato il focus dal “fare AI più veloce e più grande” al “fare AI misurabile e ottimizzata”.

I Supercomputer AI più potenti del mondo: la nuova Guerra Fredda Digitale

Dimenticatevi i missili. Il nuovo arsenale globale si misura in supercomputer AI, e il campo di battaglia è un intreccio di GPU cluster brucianti megawatt e divoratori di miliardi. C’è qualcosa di quasi poetico, e insieme osceno, nell’immaginare questi colossi di silicio come i nuovi carri armati di un conflitto senza sangue ma spietato, dove il premio è il controllo della prossima intelligenza dominante. Chi vince, detta le regole. Chi perde, diventa cliente del vincitore.

Il re incontrastato oggi si chiama Colossus, ed è un mostro di proprietà di xAI. Duecentomila equivalenti di H100 Nvidia. Sì, avete letto bene. È come prendere un’intera popolazione di chip e costringerla a lavorare 24 ore su 24 per un unico scopo: addestrare cervelli artificiali che un giorno decideranno se abbiamo ancora bisogno di programmatori umani. Memphis, non la Silicon Valley, è la nuova capitale dell’intelligenza artificiale. Ironico, no? Una città più famosa per il blues e per Elvis che per la potenza di calcolo diventa l’epicentro del futuro digitale.

L’AI Data Center sposato ai fossili: Trump vuole alimentare l’Intelligenza artificiale con carbone e gas

Trump non ha mai amato i paradossi, li cavalca. L’AI, simbolo di progresso e di quella Silicon Valley che finge di odiare, si alimenterà di carbone, gas e vecchie centrali rianimate come zombie industriali. A Pittsburgh, davanti a un pubblico che rideva complice, ha dichiarato che “il più importante uomo del giorno” è Lee Zeldin, il nuovo capo dell’EPA, che “vi darà un permesso per la più grande centrale elettrica del mondo in una settimana”. Applausi. Il messaggio subliminale era chiaro: chi se ne importa delle regole, qui si torna a trivellare, bruciare e produrre elettricità sporca, perché l’intelligenza artificiale ha fame e la fame non aspetta.

Colossus 2: il Superhub AI di Elon Musk con 1 milione di Chip NVIDIA che ridisegna il potere del calcolo

Colossus 2 non è un data center. È un manifesto di potere tecnologico travestito da infrastruttura. In Shelby County, Tennessee, mentre la gente ancora discute di chatbot e agenti conversazionali, Elon Musk sta assemblando il più grande arsenale computazionale mai visto fuori da un romanzo di Gibson. Parliamo di un milione di chip NVIDIA, con 110.000 GB200 già posizionati come pedine su una scacchiera che non è più fatta di algoritmi, ma di geopolitica digitale.

Sovereign AI in the UK

Quando il nazionalismo si fa digitale e l’intelligenza artificiale diventa la nuova geopolitica

Il mondo si è sempre mosso attorno alle materie prime. Petrolio, gas, terre rare. Oggi la materia prima è un’altra e non si trova nei giacimenti, ma nei data center. Si chiama intelligenza artificiale, e il nazionalismo che una volta si nutriva di confini fisici ora diventa una corsa febbrile a chi controlla i modelli, i dati e le infrastrutture computazionali. Il nuovo AI nazionalismo è qui, e non è più un esercizio teorico da conferenze accademiche. È un piano industriale, un’arma diplomatica e, per certi paesi, una vera e propria dichiarazione di sovranità.

S&P Global Market Intelligence IT spending Sentiment

La grande illusione dell’intenzione di spesa tecnologica è sempre la stessa: tutti fingono di avere un piano, ma alla prima scossa economica l’unica strategia è tirare il freno. Ecco perché S&P Global Market Intelligence ha fatto sobbalzare più di un analista annunciando che, dopo tre trimestri di cauto entusiasmo, la curva dell’ottimismo si è piegata verso il basso nel secondo trimestre e continuerà a calare nel terzo. Un déjà vu noioso, ma pericoloso. Eppure ci cascano sempre: i CFO leggono i numeri, i CEO si preoccupano per la “visibilità futura”, gli investitori chiedono margini. Morale? Le slide sulle “priorità digitali” finiscono di nuovo in fondo all’agenda.

OpenAI 1 milione GPU è il nuovo muro di Berlino dell’intelligenza artificiale

Quando Sam Altman dice “un milione di GPU entro fine anno” non sta vendendo sogni a venture capitalist annoiati, sta ridisegnando la mappa geopolitica dell’AI. Chi pensa che questa sia solo un’altra corsa hardware non ha capito niente. Qui non si tratta di aggiungere qualche zero ai data center, qui si tratta di sradicare la vecchia idea che la scarsità computazionale fosse il freno naturale dell’intelligenza artificiale. Altman ha già dato ordine di puntare a un 100x, e lo dice con quella calma inquietante tipica di chi ha già visto la fine della partita.

Seeweb Italia e Regolo.AI, la sfida verde dell’intelligenza artificiale che misura i watt dei tuoi token

La prossima volta che qualcuno ti venderà l’ennesima piattaforma AI definendola “green”, chiedigli quanti watt consuma un singolo token generato. Non saprà risponderti. Ecco perché Seeweb Italia, con Regolo.AI, sta giocando una partita che molti nemmeno hanno capito essere iniziata. Parlare di sostenibilità nell’intelligenza artificiale è diventato uno sport retorico, un mantra per convegni e keynote: l’energia rinnovabile, i data center ottimizzati, le offset carbon credits… peccato che nessuno, davvero nessuno, dica quanta energia spreca ogni volta che la tua applicazione chiede a un modello linguistico di partorire una frase. Qui arriva il twist: regolo.AI promette non solo di creare applicazioni AI con facilità, governance dei dati rigorosa e sicurezza nativa, ma anche di monitorare il consumo energetico per token. Watt per token. Una metrica semplice, brutale e impossibile da ignorare.

Pagina 1 di 4

CC BY-NC-SA 4.0 DEED | Disclaimer Contenuti | Informativa Privacy | Informativa sui Cookie