Intelligenza Artificiale, Innovazione e Trasformazione Digitale

Categoria: Cloud e Data Center Pagina 1 di 3

Cloud, Storage, Software, Data Center

Meta e Google siglano un accordo cloud da oltre 10 miliardi: l’era dell’intelligenza artificiale su scala industriale

Meta ha appena siglato un mastodontico accordo con Google Cloud, un’intesa che sfiora i 10 miliardi di dollari su sei anni. Il cuore dell’operazione è chiaro: infrastrutture di calcolo “as‑a‑service” server, storage, networking e tutto il cabaret cloud necessario per sostenere la sua espansione nel campo dell’intelligenza artificiale.

Parliamo di oltre 10 miliardi di dollari in valore, un accordo senza precedenti nella storia di Google Cloud, uno dei più ingenti fino ad oggi. È il secondo colpo grosso per Google dopo quello con OpenAI, e mentre Ariana Grande canticchia “thank u, next”, i grandi magazzini AI fanno incetta di risorse.

Oracle investe $1 miliardo all’anno per un data center da 1,4 GW in Texas alimentato a gas: la corsa all’energia per l’era dell’AI

Oracle ha deciso di accelerare la sua strategia cloud focalizzata sull’intelligenza artificiale con un investimento da capogiro: la costruzione di un data center da 1,4 gigawatt a Abilene, in Texas, alimentato principalmente da gas naturale. Un progetto da 1 miliardo di dollari all’anno che riflette l’urgenza di scalare l’infrastruttura per l’IA e le sfide nel collegare strutture di tale portata alle reti elettriche tradizionali.

Il sito, noto come Lancium Clean Campus, è sviluppato in collaborazione con Crusoe Energy e si estende su 826 acri. È progettato per ospitare fino a 4,5 gigawatt di capacità computazionale, destinata principalmente a OpenAI. Questa espansione fa parte del progetto Stargate, che mira a potenziare l’infrastruttura per l’IA negli Stati Uniti. La scelta di alimentare il data center con generatori a gas è una risposta diretta alle lunghe attese per l’accesso alla rete elettrica, che possono richiedere anni.

Autopoiesis si allea con Oracle per potenziare la propria AI

Il mondo dell’intelligenza artificiale è un’arena di gladiatori. Da un lato i colossi come OpenAI, Anthropic, Google DeepMind e la miriade di startup che propongono chatbot come distributori automatici di frasi preconfezionate. Dall’altro emerge Joseph Reth, “un ventenne”che ha fondato Autopoiesis Sciences, rifiutando offerte milionarie per costruire un’AI rivoluzionaria. La sua visione è chiara: creare un’intelligenza artificiale che non si limiti a generare risposte, ma che ragioni, verifichi, riconosca gli errori e li dichiari apertamente. Un’AI destinata a diventare un partner epistemico della scienza, superando modelli come GPT-5 e Grok, e siglando una partnership strategica con Oracle per sfruttare un’infrastruttura cloud enterprise-grade, robusta e certificata.

Roo-Code: l’agente autonomo di coding alimentato dall’AI dentro VScode

Nel panorama in rapida evoluzione degli strumenti per sviluppatori, Roo-Code, precedentemente noto come Roo Cline, emerge come un protagonista audace. Non è semplicemente un’estensione di completamento automatico; è un agente autonomo di coding alimentato dall’intelligenza artificiale, integrato senza soluzione di continuità in Visual Studio Code. La promessa è chiara: trasformare il modo in cui scriviamo software, portando automazione intelligente, supporto multilingua e una gamma di funzionalità sperimentali direttamente all’interno del flusso di lavoro del developer.

Il nucleo di Roo-Code è impressionante nella sua ambizione. Comprende istruzioni in linguaggio naturale, interagisce con file e cartelle nel workspace, esegue comandi nel terminale, automatizza azioni nei browser web e si integra con modelli AI compatibili con OpenAI come regolo.ai. Non si limita a suggerire frammenti di codice; propone soluzioni complete, adatte a un ciclo di sviluppo moderno e complesso. La capacità di creare personalità AI personalizzate tramite i Custom Modes aggiunge un livello di adattabilità che supera di gran lunga gli strumenti tradizionali, consentendo a Roo-Code di assumere ruoli specifici come QA engineer, architetto software o assistente di ricerca.

AI Cloud e il nodo cruciale dell’indipendenza tecnologica: priorità tra beni e servizi digitali

La dipendenza infrastrutturale in Europa è ormai un problema da codice rosso, quasi un dramma shakespeariano in chiave tecnologica. Nel mondo del cloud computing, la quasi totalità delle aziende europee si affida senza riserve a infrastrutture americane, con Amazon Web Services che detiene circa il 32% del mercato globale, seguito da Microsoft Azure con il 23% e Google Cloud Platform intorno al 11%, dati recenti di Synergy Research Group confermano questa distribuzione spietata. Questi numeri non sono soltanto statistiche: sono il riflesso di un controllo quasi totale su dati, servizi e infrastrutture critiche che influenzano quotidianamente la vita economica, sociale e politica del continente.

Variabilità delle prestazioni dei modelli GPT open weight a seconda dell’hosting

Il mondo dei modelli GPT open weight sta rapidamente diventando un terreno minato per chi pensa che “open” significhi prevedibile. Recenti osservazioni hanno mostrato come le prestazioni di questi modelli varino in modo significativo a seconda di chi li ospita. Azure e AWS, spesso percepiti come standard di riferimento affidabili, si collocano tra i peggiori nella scala delle performance, e questo non è un dettaglio marginale. Per chi considera il tuning dei prompt la leva principale per migliorare i risultati, la sorpresa sarà dolorosa: l’impatto dell’hosting supera di gran lunga quello della maggior parte delle ottimizzazioni sui prompt.

Ci sono aziende che spendono mesi a perfezionare il wording dei prompt, come se fossero poeti della logica, ignorando che l’infrastruttura sottostante potrebbe vanificare ogni sforzo. La verità è che differenze minime nella GPU, nelle versioni dei driver, nei layer di containerizzazione o nella latenza di rete possono determinare scostamenti drammatici in termini di accuratezza e velocità di risposta. Se stai utilizzando un modello per supportare decisioni critiche, dal trading algoritmico alla generazione automatica di codice, queste differenze diventano rischi reali, non astratti.

Coreweave tra crescita esplosiva e margini risicati: il paradosso del Cloud GPU

CoreWeave ha attirato l’attenzione di Wall Street con numeri che sembrano gridare “successo”: il fatturato è triplicato nell’ultimo anno, accompagnato da un backlog di ordini in aumento, segnale chiaro di una domanda che non accenna a rallentare. Eppure, nonostante l’euforia apparente, il quadro finanziario racconta una storia più complessa, quasi cinematografica, fatta di margini operativi compressi a un misero 2% rispetto al 20% dell’anno precedente e di perdite che continuano a mordere il bilancio. Gli investitori hanno reagito rapidamente: le azioni hanno perso il 10% nelle contrattazioni after-hours, una caduta che fotografa la paura di un futuro in cui la crescita senza profitto rischia di diventare un’illusione.

Legge delega Data Center: l’Italia rischia di preparare la tavola e lasciare che mangino altri

La scena è questa: il Parlamento discute di una legge delega sui data center e tutti annuiscono, con l’aria di chi finalmente affronta un problema urgente. Gli amministratori locali invocano da anni una normativa autorizzazioni data center chiara e uniforme, e la politica sembra voler rispondere. Sullo sfondo, una pioggia di miliardi: 37 annunciati nel 2024, 10 attesi solo tra 2025 e 2026. Sembra un’operazione chirurgica per far crescere l’economia digitale nazionale. Ma le operazioni chirurgiche, si sa, possono finire con il paziente più in ordine esteticamente ma in mani altrui.

Data Center o palazzinari digitali? la distopia del made in italy

La parola “Make in Italy” suona bene. È catchy, accattivante, quasi innocente. Ma nel contesto della legge delega in discussione alla Camera, che vorrebbe normare (anzi no, “attrarre investimenti stranieri” mascherati da data center), si trasforma in un cavallo di Troia retorico. Antonio Baldassarra, CEO di Seeweb, in una recente intervista a Key4biz non ci gira intorno: è come essere tornati negli anni Cinquanta, quando bastava un progetto edilizio per muovere capitali, solo che oggi i protagonisti non sono i palazzinari romani, ma quelli tecnologici, assetati di suolo, energia e semplificazioni normative. Il nuovo mattone digitale si chiama “hyperscale data center”. E la politica sembra aver già consegnato le chiavi.

OpenAI libera GPT-OSS-120b: altruismo, trappola o colonizzazione?

Marco Cristofanilli ci ha mostrato GPT-OSS-120B in azione su AMD MI300X, raggiungendo oltre 800 token al secondo. Un risultato notevole, soprattutto considerando che questo LLM è stato progettato per chip Nvidia. Potete provarlo in questi giorni: Regolo.AI rimane freemium ancora per poco.

La mossa di OpenAI con gpt-oss-120b e licenza Apache 2.0, suona meno come un atto di filantropia tecnologica e più come un colpo di biliardo a tre sponde. Un LLM di quella taglia, con prestazioni che si avvicinano ai top di gamma e con throughput da 800 token/sec su un MI300X, non è stato “liberato” per caso. Soprattutto se fino a ieri la narrativa ufficiale era quella di contenere il rilascio di modelli potenti per ragioni di sicurezza, costi e “alignment”.

OpenAI scommette sull’Europa: Stargate Norway e la corsa all’egemonia computazionale

Quando OpenAI lancia un nuovo progetto infrastrutturale, il mondo prende appunti. Quando lo fa in Europa, tra montagne scandinave e rigide regolamentazioni ambientali, c’è molto di più in gioco di qualche megawatt in più. Con l’annuncio di Stargate Norway, OpenAI lancia un segnale chiarissimo alla geopolitica del calcolo: il dominio dell’intelligenza artificiale non passa solo dai modelli, ma dai watt. Il contesto? Una guerra sotterranea per la sovranità computazionale europea, un’Europa che ha deciso che non vuole più giocare con server in leasing made in Silicon Valley. La scelta del partner, Nscale, startup britannica ambiziosa nel settore cloud AI, e dell’infrastruttura, progettata in tandem con Aker, gigante norvegese dell’energia industriale, non è casuale. Qui non si tratta di una semplice server farm: si tratta della prima “centrale sovrana” AI in terra europea con l’imprinting di OpenAI. Ma attenzione: Stargate Norway non è un progetto UE. È un’operazione parallela, un asse transatlantico nordico.

Foxconn e Teco alleati strategici per costruire la nuova geografia dei data center AI

Foxconn è stufa di essere vista come il braccio operaio di Apple. Non vuole più solo stringere bulloni per iPhone da 1.000 dollari e margini da fame. La direzione è tracciata: infrastruttura per l’intelligenza artificiale. Ed è una direzione con cui nessuno a Taipei vuole scherzare. Mercoledì è arrivato l’annuncio: una partnership strategica con Teco Electric & Machinery, il colosso taiwanese dei motori industriali, per entrare con forza nel mercato globale dei data center dedicati all’AI. Non in modo decorativo, ma strutturale, fisico, concreto. Come in “server rack”, “UPS”, “raffreddamento”, “infrastruttura elettrica”, “espansione planetaria”. Una dichiarazione di guerra, non un comunicato stampa.

L’intelligenza artificiale divora il Wyoming: quando un data center consuma più di uno stato

Non è fantascienza ma l’ennesima dimostrazione che il XXI secolo sarà alimentato non da democrazie ma da data center affamati di elettroni. Il Wyoming, stato noto per le praterie, i rodei e una densità abitativa più vicina alla Mongolia che a Manhattan, sta per essere risucchiato nel vortice dell’intelligenza artificiale. La notizia è di quelle che fanno saltare sulla sedia gli addetti ai lavori e i romantici delle rinnovabili: un campus di data center AI da 1.8 gigawatt, con potenziale espansione fino a 10 GW, sarà costruito vicino a Cheyenne. Per capirci: 1 GW può alimentare un milione di case. L’intera popolazione del Wyoming non arriva a 600.000 abitanti. Fate i conti.

Chi paga l’intelligenza artificiale? Big Tech, Carbone e la bufala della neutralità energetica

Chi paga il conto dell’intelligenza artificiale? Non chi la usa. Non chi la governa. Nemmeno chi la promuove con entusiasmo evangelico nei convegni. A pagarlo, lentamente ma inesorabilmente, sono le reti elettriche nazionali, le bollette dei consumatori e, incidentalmente, il pianeta. L’intelligenza artificiale, così come la intendono oggi i colossi tecnologici americani, è una macchina insaziabile alimentata da energia bruta, preferibilmente continua, modulabile e possibilmente prodotta da fonti che si possono accendere e spegnere a comando. In pratica: gas, carbone, nucleare. Il resto, cioè sole e vento, può accomodarsi fuori.

Sotto la patina patinata della “rivoluzione AI”, si nasconde un ritorno violento a modelli industriali ottocenteschi, con un’estetica da Silicon Valley e una politica energetica da Pennsylvania del 1910. A guidare questa distopia in Technicolor è una visione autoritaria della crescita, scritta con linguaggio da campagna elettorale e firmata da un ex presidente che sembra confondere deregolamentazione con innovazione. Trump, nel suo recente “AI Action Plan”, non ha semplicemente accelerato la realizzazione di data center. Ha spalancato la porta a una deregulation senza precedenti a favore di carbone, petrolio e “dispatchable power” un modo elegante per dire: tutto tranne l’energia rinnovabile.

La trasparenza energetica nell’intelligenza artificiale come nuovo asset strategico

Perché l’energia è il nuovo capitale dell’AI

La narrativa green nel mondo dell’intelligenza artificiale ha smesso di essere un vezzo da ufficio marketing per trasformarsi in un parametro di valutazione finanziaria. Nel 2025 l’energia è il nuovo capitale, e chi non riesce a rendicontarne l’uso con precisione è destinato a essere penalizzato da investitori, regolatori e in prospettiva dagli stessi clienti enterprise. La pressione ESG ha spostato il focus dal “fare AI più veloce e più grande” al “fare AI misurabile e ottimizzata”.

I Supercomputer AI più potenti del mondo: la nuova Guerra Fredda Digitale

Dimenticatevi i missili. Il nuovo arsenale globale si misura in supercomputer AI, e il campo di battaglia è un intreccio di GPU cluster brucianti megawatt e divoratori di miliardi. C’è qualcosa di quasi poetico, e insieme osceno, nell’immaginare questi colossi di silicio come i nuovi carri armati di un conflitto senza sangue ma spietato, dove il premio è il controllo della prossima intelligenza dominante. Chi vince, detta le regole. Chi perde, diventa cliente del vincitore.

Il re incontrastato oggi si chiama Colossus, ed è un mostro di proprietà di xAI. Duecentomila equivalenti di H100 Nvidia. Sì, avete letto bene. È come prendere un’intera popolazione di chip e costringerla a lavorare 24 ore su 24 per un unico scopo: addestrare cervelli artificiali che un giorno decideranno se abbiamo ancora bisogno di programmatori umani. Memphis, non la Silicon Valley, è la nuova capitale dell’intelligenza artificiale. Ironico, no? Una città più famosa per il blues e per Elvis che per la potenza di calcolo diventa l’epicentro del futuro digitale.

L’AI Data Center sposato ai fossili: Trump vuole alimentare l’Intelligenza artificiale con carbone e gas

Trump non ha mai amato i paradossi, li cavalca. L’AI, simbolo di progresso e di quella Silicon Valley che finge di odiare, si alimenterà di carbone, gas e vecchie centrali rianimate come zombie industriali. A Pittsburgh, davanti a un pubblico che rideva complice, ha dichiarato che “il più importante uomo del giorno” è Lee Zeldin, il nuovo capo dell’EPA, che “vi darà un permesso per la più grande centrale elettrica del mondo in una settimana”. Applausi. Il messaggio subliminale era chiaro: chi se ne importa delle regole, qui si torna a trivellare, bruciare e produrre elettricità sporca, perché l’intelligenza artificiale ha fame e la fame non aspetta.

Colossus 2: il Superhub AI di Elon Musk con 1 milione di Chip NVIDIA che ridisegna il potere del calcolo

Colossus 2 non è un data center. È un manifesto di potere tecnologico travestito da infrastruttura. In Shelby County, Tennessee, mentre la gente ancora discute di chatbot e agenti conversazionali, Elon Musk sta assemblando il più grande arsenale computazionale mai visto fuori da un romanzo di Gibson. Parliamo di un milione di chip NVIDIA, con 110.000 GB200 già posizionati come pedine su una scacchiera che non è più fatta di algoritmi, ma di geopolitica digitale.

Sovereign AI in the UK

Quando il nazionalismo si fa digitale e l’intelligenza artificiale diventa la nuova geopolitica

Il mondo si è sempre mosso attorno alle materie prime. Petrolio, gas, terre rare. Oggi la materia prima è un’altra e non si trova nei giacimenti, ma nei data center. Si chiama intelligenza artificiale, e il nazionalismo che una volta si nutriva di confini fisici ora diventa una corsa febbrile a chi controlla i modelli, i dati e le infrastrutture computazionali. Il nuovo AI nazionalismo è qui, e non è più un esercizio teorico da conferenze accademiche. È un piano industriale, un’arma diplomatica e, per certi paesi, una vera e propria dichiarazione di sovranità.

S&P Global Market Intelligence IT spending Sentiment

La grande illusione dell’intenzione di spesa tecnologica è sempre la stessa: tutti fingono di avere un piano, ma alla prima scossa economica l’unica strategia è tirare il freno. Ecco perché S&P Global Market Intelligence ha fatto sobbalzare più di un analista annunciando che, dopo tre trimestri di cauto entusiasmo, la curva dell’ottimismo si è piegata verso il basso nel secondo trimestre e continuerà a calare nel terzo. Un déjà vu noioso, ma pericoloso. Eppure ci cascano sempre: i CFO leggono i numeri, i CEO si preoccupano per la “visibilità futura”, gli investitori chiedono margini. Morale? Le slide sulle “priorità digitali” finiscono di nuovo in fondo all’agenda.

OpenAI 1 milione GPU è il nuovo muro di Berlino dell’intelligenza artificiale

Quando Sam Altman dice “un milione di GPU entro fine anno” non sta vendendo sogni a venture capitalist annoiati, sta ridisegnando la mappa geopolitica dell’AI. Chi pensa che questa sia solo un’altra corsa hardware non ha capito niente. Qui non si tratta di aggiungere qualche zero ai data center, qui si tratta di sradicare la vecchia idea che la scarsità computazionale fosse il freno naturale dell’intelligenza artificiale. Altman ha già dato ordine di puntare a un 100x, e lo dice con quella calma inquietante tipica di chi ha già visto la fine della partita.

Seeweb Italia e Regolo.AI, la sfida verde dell’intelligenza artificiale che misura i watt dei tuoi token

La prossima volta che qualcuno ti venderà l’ennesima piattaforma AI definendola “green”, chiedigli quanti watt consuma un singolo token generato. Non saprà risponderti. Ecco perché Seeweb Italia, con Regolo.AI, sta giocando una partita che molti nemmeno hanno capito essere iniziata. Parlare di sostenibilità nell’intelligenza artificiale è diventato uno sport retorico, un mantra per convegni e keynote: l’energia rinnovabile, i data center ottimizzati, le offset carbon credits… peccato che nessuno, davvero nessuno, dica quanta energia spreca ogni volta che la tua applicazione chiede a un modello linguistico di partorire una frase. Qui arriva il twist: regolo.AI promette non solo di creare applicazioni AI con facilità, governance dei dati rigorosa e sicurezza nativa, ma anche di monitorare il consumo energetico per token. Watt per token. Una metrica semplice, brutale e impossibile da ignorare.

Meta ha un nuovo Dio e si chiama Hyperion: l’intelligenza artificiale si beve l’America

Non è più solo una corsa. È un’orgia di silicio, corrente elettrica e narcisismo computazionale. Mentre OpenAI si trastulla con la sua Stargate da film di fantascienza di serie B e Google DeepMind cerca disperatamente di sembrare ancora rilevante, Meta cala l’asso Hyperion: un mostro da cinque gigawatt che si estenderà quanto Manhattan. Cinque gigawatt non sono una cifra, sono una dichiarazione di guerra. A chi? A tutti: concorrenti, governi, cittadini, pianeta. L’intelligenza artificiale, nel 2025, non si addestra, si alimenta. E si alimenta come un dio antico, con sacrifici umani inclusi.

Digital Networks Act: il fallimento annunciato della deregulation digitale europea

Immaginate di vivere in una città dove solo chi possiede l’unica autostrada può decidere chi può usarla, quando, e a che prezzo. Se sei un piccolo trasportatore o un nuovo imprenditore, sei costretto a pagare quel pedaggio, oppure rinunci del tutto a far viaggiare le tue merci. Ora applicate questa logica alle reti digitali europee: fibra, 5G, cloud, intelligenza artificiale. È qui che entra in gioco la proposta di legge chiamata Digital Networks Act, che rischia di trasformare le infrastrutture digitali europee in un feudo privato, togliendo al regolatore pubblico la possibilità di intervenire quando un operatore è troppo dominante e chiude l’accesso agli altri.

L’intelligenza artificiale spiegata al tuo CTO: perché Regolo.AI e Flowise sono molto più di un giocattolo geek

Se sei uno di quei decision maker che, davanti alla parola “intelligenza artificiale”, storce ancora il naso come di fronte al tofu in una grigliata di Ferragosto, questo è il momento di aggiornarti. E no, non serve assumere un altro “Prompt Engineer”. Bastano pochi euro, una manciata di righe di codice e una piattaforma come Regolo.ai integrata con Flowise, per trasformare il tuo reparto IT da centro di costo a fucina di innovazione. Quello che Seeweb ha appena messo in piedi con Regolo.ai non è solo un tool da smanettoni. È un cambio di paradigma. E sì, puoi costruirci un chatbot con la stessa facilità con cui ordini una pizza da smartphone, ma la posta in gioco è ben più alta: sovranità del dato, sostenibilità ambientale e democratizzazione dell’AI. Tutto in uno.

Quando David batte Golia con un tokenizer: l’ascesa dei modelli linguistici italiani (che nessuno voleva vedere)

Ci siamo abituati a un mondo in cui l’intelligenza artificiale parla inglese, pensa inglese e viene valutata secondo criteri stabiliti, indovina un po’, da aziende americane. Fa curriculum: openAI, Google, Anthropic, Meta. Chi osa mettersi di traverso rischia di essere etichettato come “romantico”, “idealista” o, peggio ancora, “locale”. Ma ogni tanto succede che una scheggia impazzita scardini l’equilibrio dei giganti e costringa il sistema a sbattere le palpebre. È successo con Maestrale, un modello linguistico italiano open source, sviluppato da una piccola comunità di ricercatori guidati da passione, competenza e una sfacciata ostinazione.

Il futuro del cloud in Italia e in Europa

Quando si parla di “cloud europeo” la retorica prende il volo, i comunicati si moltiplicano e le istituzioni si affannano a mostrare che, sì, anche il Vecchio Continente può giocare la partita con i big tech americani. Ma basta grattare appena sotto la superficie per accorgersi che, mentre si organizzano convegni dal titolo vagamente profetico come “Il futuro del cloud in Italia e in Europa”, il futuro rischia di essere una replica sbiadita di un presente già dominato altrove. L’evento dell’8 luglio, promosso da Adnkronos e Open Gate Italia, ha messo in scena l’ennesimo tentativo di razionalizzare l’irrazionale: cioè la convinzione che l’Europa possa conquistare la sovranità digitale continuando a delegare le sue infrastrutture fondamentali agli hyperscaler americani. A fare gli onori di casa, nomi noti come Giacomo Lasorella (Agcom) e Roberto Rustichelli (Agcm), professori universitari esperti di edge computing, rappresentanti delle istituzioni europee e naturalmente AWS e Aruba, i due lati della stessa medaglia: chi fa il cloud globale e chi prova a salvarne un pezzetto per sé.

Chi costruisce l’intelligenza artificiale americana: i 100 miliardi di watt che stanno riscrivendo il potere

C’è qualcosa di poetico nel fatto che l’intelligenza artificiale, la più incorporea delle rivoluzioni, stia cementificando il pianeta sotto milioni di tonnellate di acciaio, cavi in fibra ottica e turbine ad alta tensione. Mentre i visionari della Silicon Valley vendono algoritmi come se fossero fuffa mistica, la vera guerra si combatte nei deserti texani, nelle paludi della Louisiana, nei freddi angoli dell’Oregon, dove i data center HPC si moltiplicano come formicai radioattivi. Altro che nuvola: qui servono ettari di cemento, interi bacini idrici, e il consumo energetico di nazioni intere per far girare LLM e modelli AI che promettono di capire l’animo umano, ma non riescono ancora a distinguere tra una banana e un cacciavite in un’immagine sfocata.

Quando una GPU incontra un piccone: perché l’acquisizione di Core Scientific da parte di Coreweave cambia le regole del gioco della potenza computazionale

Immaginate un matrimonio combinato tra un trader di Wall Street con l’hobby del quantum computing e un minatore del Kentucky che sogna l’IPO. È più o meno ciò che rappresenta l’acquisizione da 9 miliardi di dollari proposta da CoreWeave (NASDAQ:CRWV) ai danni sì, ai danni di Core Scientific (NASDAQ:CORZ), storico operatore del settore crypto mining che ora si ritrova a giocare un ruolo da protagonista in una partita molto più sofisticata: l’ascesa del data center hyperscale nel contesto dell’intelligenza artificiale generativa. Altro che ASIC e proof-of-work, qui si parla di orchestrazione di workload ad alta densità per LLM e training su larga scala. Benvenuti nella fase 2 dell’era post-cloud.

Il precipizio del calcolo: l’apartheid computazionale che sta decidendo il futuro dell’intelligenza artificiale

C’è una bugia ben educata che ci raccontiamo sull’intelligenza artificiale: che sia universale, democratica, accessibile. Basta un’idea brillante e una connessione a internet, giusto? Sbagliato. Oggi la vera valuta dell’intelligenza artificiale non è l’algoritmo, né il talento. È la potenza di calcolo. E su quel fronte, il mondo non è solo diviso: è spaccato come una lastra di ghiaccio sottile sotto il peso di un futuro che pochi potranno davvero controllare.

Perché Milano è la nuova Francoforte e l’Italia sta finalmente smettendo di essere solo una cartolina per l’Europa dei dati

Il panorama dei Data Center in Italia e in Europa: un’analisi approfondita

Nel cuore di questa corsa globale verso l’elaborazione decentralizzata e la dominazione algoritmica, alcune città europee iniziano a muovere pedine che fino a ieri sembravano ferme come statue. Milano non è più sola: Roma, Marsiglia e Varsavia stanno diventando nomi familiari nei pitch deck degli investitori. No, non stiamo parlando di turismo, ma di hyperscale, colocation e edge computing. La nuova geopolitica digitale non si combatte con trattati o accordi doganali, ma con latenza, connettività e temperatura media. Sì, anche il meteo ora fa strategia.

La grande illusione del riciclo del capitale nei data center per l’AI: il boom che puzza di fine corsa

C’è un odore particolare che si sente sempre all’apice di una bolla finanziaria: un mix di euforia da spreadsheet, dichiarazioni pubbliche ottimiste e, dietro le quinte, banche d’investimento che cercano una porta d’uscita elegante prima che le luci si spengano. Ecco, questo è esattamente il profumo che emana oggi il mercato dei data center per l’intelligenza artificiale. Un boom da trilioni di dollari gonfiato da fondi private equity, REIT iper-leveraggiati e una fede quasi religiosa nella crescita esponenziale dell’AI. Ma la nuova parola d’ordine è “riciclo del capitale”, e come ogni nuovo mantra finanziario, suona meglio di quanto non odori.

Il problema, come sempre, non è l’infrastruttura in sé. Nessuno mette in discussione che un hyperscale data center da 250 megawatt, carico di server NVIDIA e immerso in liquido refrigerante da fantascienza, sia una meraviglia ingegneristica. Il problema è l’assunto finanziario sottostante: che ci sarà sempre un prossimo investitore disposto a pagare un multiplo più alto, una rendita più bassa, una scommessa più grossa. E quando Goldman Sachs inizia a parlare apertamente di “costruire la rampa d’uscita” per i primi investitori, dovremmo forse tutti smettere di parlare di crescita e iniziare a parlare di exit strategy. (qui il Report)

Seeweb Italia e Regolo.AI la sostenibilità che pesa i watt consumati per ogni token prodotto

Quando si parla di intelligenza artificiale, il mantra “green” è diventato una parola abusata, una sorta di placebo per placare i sensi di colpa dei consumatori e dei manager. I giganti del settore sventolano certificazioni, rinnovabili e offset, ma nessuno osa mettere sul tavolo un dato che è la vera cartina tornasole dell’impatto ambientale: quanti watt vengono consumati per ogni token prodotto? È qui che Seeweb Italia con Regolo.AI fa la differenza, entrando in un territorio che fino a ieri era appannaggio esclusivo di pochi ingegneri ambientalisti e data scientist con velleità green. Non solo promette facilità nella creazione di applicazioni AI, data governance europea e sicurezza a prova di GDPR, ma porta sul mercato una metrica chiave: il monitoraggio del consumo energetico token per token. Un approccio che, più che parlare di sostenibilità, la rende finalmente misurabile e, quindi, gestibile.

La rivoluzione silenziosa che sta riscrivendo la medicina italiana senza aspettare il permesso di nessuno

A Palazzo Lombardia, nel consueto salotto istituzionale dove il potere si veste da moderazione e i microfoni amplificano solo ciò che è già stato autorizzato, è andata in scena una delle rare occasioni in cui l’intelligenza artificiale è stata nominata senza scivolare nella fiera delle ovvietà. Il 23 giugno scorso, durante l’evento Salute Direzione Nord promosso da Fondazione Stelline, davanti a nomi che definire altisonanti è ormai protocollo – la vicepresidente del Senato Licia Ronzulli, il presidente di Regione Attilio Fontana, il ministro della Salute Orazio Schillaci – il vero protagonista non aveva cravatta ma codice: l’AI nella sanità.

Diciamolo subito. Quando un’infrastruttura come Seeweb prende il microfono e parla di medicina, qualcuno alza il sopracciglio. Quando però il CEO Antonio Baldassarra comincia a parlare di diagnostica per immagini e tumore ovarico non con la solita cautela da convegno, ma come chi sa perfettamente cosa si può fare oggi, allora il sospetto si trasforma in attenzione. Perché è chiaro che non siamo più nel territorio delle ipotesi ma della realtà, quella concreta, fatta di pixel che salvano vite.

L’illusione regolatoria e la paralisi dell’innovazione: perché il Cloud AI Development Act rischia di fare più danni che bene

C’è una strana sindrome, tutta europea, che potremmo definire “burocrazia salvifica”. Una fede incrollabile nella capacità taumaturgica della regolamentazione di sistemare ciò che il mercato, la competizione, la libertà d’impresa e, diciamolo pure, il rischio non sono riusciti a far funzionare. E ogni volta che il mondo corre più veloce delle nostre istituzioni, ecco spuntare un nuovo acronimo, un’altra direttiva, l’ennesimo atto. Oggi tocca al Cloud AI Development Act, la nuova formula magica che dovrebbe trasformare l’Europa in una superpotenza digitale. O quantomeno farci sentire un po’ meno provinciali rispetto a USA e Cina.

L’Italia è pronta per un Cloud e AI Development Act?

In un panorama digitale in continua evoluzione, la regolamentazione dell’Intelligenza Artificiale (AI) e del cloud computing sta diventando un tema centrale. L’Europa si sta interrogando sulla necessità di un “Cloud AI Development Act”, e per esplorare a fondo la questione, è stato organizzato un webinar con alcuni dei maggiori esperti del settore.

Questo incontro organizzato da Seeweb (Antonio Baldassarra) e moderato da Dario Denni , nato da un confronto approfondito con il Professor Antonio Manganelli su ipotesi competitive nell’ambito dell’Agent AI, si propone di aprire ad una comprensione approfondita di un argomento che modellerà il futuro dell’economia e della società digitale.

Tra i relatori: Antonio Baldassarra, Antonio Manganelli, Innocenzo Genna, Renato Sicca, Maria Vittoria La Rosa, Luca Megale, Alberto Messina, Simone Cremonini, Vincenzo Ferraiuolo e Marco Benacchio.

Perché la Commissione ritiene che ci sia bisogno di intervenire. È un tema che sarà oggetto di dibattito, com’è giusto che sia.

ATA Insights la rivoluzione dei Data Center in Italia ed Europa al centro della trasformazione digitale

Il settore dei data center in Europa sta vivendo una trasformazione senza precedenti, alimentata dalla crescente domanda di servizi cloud, intelligenza artificiale e digitalizzazione accelerata. Con tassi di crescita a doppia cifra e investimenti plurimiliardari, il mercato europeo si sta consolidando come pilastro fondamentale dell’economia digitale globale. In questo contesto, l’Italia ha le potenzialità per poter emergere come un hub strategico, pronta a competere con i tradizionali mercati FLAP-D (Francoforte, Londra, Amsterdam, Parigi e Dublino), che stanno raggiungendo la saturazione.

La corsa silenziosa di Pechino per il dominio dell’AI: perché Deepseek e i Data Center verdi minacciano l’egemonia di Nvidia

Mentre a Wall Street si brinda all’ennesimo record storico di Nvidia, in un angolo meno chiassoso del pianeta qualcuno sta costruendo una rete invisibile. Silenziosa, a basso costo, brutalmente efficiente. Si chiama DeepSeek, arriva da Hangzhou, e ha appena fatto saltare il banco della narrativa occidentale secondo cui l’intelligenza artificiale avanzata sarebbe un’esclusiva americana, magari con hardware made in Taiwan. No, perché la Cina, senza troppo rumore, si prepara a investire tra i 600 e i 700 miliardi di yuan nel solo 2025 in capex per l’AI. Tradotto: fino a 98 miliardi di dollari, con una crescita annuale prevista del 48%.

Data center e recupero di calore: la nuova frontiera sostenibile per la Lombardia digitale

La transizione digitale e l’espansione dell’intelligenza artificiale hanno spinto i data center al centro della scena europea, con una crescita esponenziale di infrastrutture nei principali hub tecnologici del continente. Tra le regioni destinate a subirne l’impatto maggiore c’è la Lombardia, al crocevia tra innovazione, industria e infrastrutture energetiche.

Dove il cloud non arriva, Oracle atterra: sovranità digitale senza compromessi

C’è un’aria di rivincita nell’aria. Dopo i riflettori puntati su OpenAI e i suoi tormenti da intelligenza artificiale cosciente e la offerta per il Pentagono, ecco che Oracle risale la scena con un annuncio tanto silenzioso quanto strategico. Nessuna coreografia in stile Silicon Valley, nessun CEO che filosofeggia sulla singolarità. Solo un prodotto, freddo, solido, brutale: Oracle Compute Cloud@Customer Isolated. Nome ostico, ma messaggio chiarissimo. Il cloud smette di essere un servizio e torna a essere infrastruttura. Anzi, fortezza.

Pagina 1 di 3

CC BY-NC-SA 4.0 DEED | Disclaimer Contenuti | Informativa Privacy | Informativa sui Cookie