C’è un errore concettuale che si continua a ripetere nel mondo dell’Intelligenza Artificiale, una specie di dogma non scritto: per avere prestazioni elevate, devi sacrificare il controllo. In altre parole: se vuoi GPU, devi affidarti mani e CPU alle big cloud d’oltreoceano, rinunciando a ogni pretesa di privacy-by-design. Ma cosa succede se ti dicessimo che è possibile avere entrambi? Se la scelta non fosse più tra potenza e proprietà, ma tra dipendenza e autonomia?
Categoria: Cloud e Data Center Pagina 1 di 2
Cloud, Storage, Software, Data Center

Nessuno aveva chiesto il permesso. Nvidia è entrata in Europa come una valanga silenziosa, con l’annuncio che segna una nuova frontiera: la costruzione del primo cloud industriale AI europeo. Non un data center qualsiasi, ma una piattaforma con 10.000 GPU H100, pensata non per alimentare i meme su Midjourney, ma per far girare le macchine che muovono l’industria pesante, le smart factory e, soprattutto, le economie nazionali.
Dietro l’annuncio c’è molto di più che un’infrastruttura. C’è un messaggio politico. C’è l’idea, finora solo sussurrata nei corridoi della Commissione Europea, che il cloud “made in USA” non sia più sostenibile. E mentre Bruxelles balbetta leggi e regolamenti, Nvidia fa. E lo fa a casa nostra.

Il palcoscenico era pronto, i riflettori accesi, e poi… niente. Stargate, la presunta alleanza epocale tra Oracle, SoftBank e OpenAI per dar vita a un’infrastruttura da 500 miliardi di dollari destinata all’intelligenza artificiale, è ancora una chimera. Safra Catz, CEO di Oracle, lo ha dichiarato con candore durante l’ultima call sugli utili: “non è ancora stata costituita”.

“Quando senti la parola ‘cloud’, guarda se piove.” Questa battuta, un po’ vecchia scuola ma mai fuori moda, descrive perfettamente la schizofrenia con cui l’Italia affronta il tema del digitale. Da un lato si moltiplicano convegni, task force e white paper che inneggiano all’Intelligenza Artificiale come alla nuova Rinascenza tecnologica italiana. Dall’altro, le PMI arrancano su server obsoleti, con una fibra che spesso è più ottica nei titoli dei bandi che nei cavi di rete. E allora, ci vuole davvero un Cloud e AI Development Act per traghettare il Bel Paese verso un futuro dove il digitale non sia più un miraggio ma una politica industriale concreta?
Il 2 febbraio 2025 segna un punto di svolta. L’entrata in vigore della prima fase dell’AI Act europeo segna un cambio di paradigma: chi sviluppa, distribuisce o adotta sistemi di intelligenza artificiale dovrà fare i conti non solo con algoritmi, ma anche con regolatori armati di sanzioni fino al 7% del fatturato globale. Niente male per un settore che si è mosso finora con l’agilità di un esperto in dark pattern più che con quella di un civil servant europeo.

C’è qualcosa di straordinario che sta accadendo sotto i nostri piedi e sopra le nostre teste. Non lo vediamo, ma ci avvolge ogni giorno. È l’evoluzione dell’Internet, un ecosistema che da sogno accademico è diventato infrastruttura critica della civiltà contemporanea. Non più solo strumento, ma vero e proprio tessuto connettivo dell’umanità. E NAM2025, il summit in programma l’11 giugno a Roma, nasce proprio per fare luce su questa trasformazione epocale, dove intelligenza artificiale, geopolitica, spazio e cavi sottomarini si intrecciano in uno scenario tanto complesso quanto affascinante.

C’è un nuovo Eldorado tecnologico, e non si trova né nella Silicon Valley né a Shenzhen. Si trova a centinaia di chilometri sopra le nostre teste, in orbita terrestre. Mentre i comuni mortali cercano di far funzionare i loro server on-premise o di migrare al cloud, i giganti della tecnologia stanno già pensando a data center spaziali, come se fosse la cosa più naturale del mondo. Eric Schmidt, ex CEO di Google, ha recentemente preso le redini di Relativity Space, un’azienda che punta a costruire razzi stampati in 3D e a lanciare infrastrutture nello spazio. Nel frattempo, Jeff Bezos, con la sua Blue Origin, sta sviluppando “Blue Ring”, una piattaforma spaziale che offre potenza di calcolo resistente alle radiazioni, gestione termica e comunicazioni per carichi utili in orbita.
Ma perché tutto questo interesse per i data center nello spazio? Per cominciare, lo spazio offre un ambiente unico: temperature estreme, assenza di gravità e un’abbondanza di energia solare. Queste condizioni possono essere sfruttate per creare data center altamente efficienti e sicuri. Inoltre, con l’aumento esponenziale dei dati generati da dispositivi IoT,(o da reti tipo Starlink o Kuiper di Amazon) intelligenza artificiale e altre tecnologie emergenti, la domanda di capacità di elaborazione e archiviazione è in costante crescita. I data center spaziali potrebbero offrire una soluzione scalabile e sostenibile a lungo termine.

McKinsey Study AI infrastructure: A new growth avenue for telco operators
“Il miglior modo per predire il futuro è inventarlo”, diceva Alan Kay. Ma nel caso dell’economia dell’intelligenza artificiale, predirlo significa anche cablarlo. Ospitarlo. Alimentarlo a megawatt e connettività. E se oggi gli operatori telco si illudono di poter semplicemente ritagliarsi un posto accanto agli hyperscaler, farebbero meglio a studiare il caso Seeweb con il suo GPU aaS ad esempio: un player italiano che, mentre i giganti si perdono tra strategie da boardroom e infrastrutture legacy, ha già capito come posizionarsi là dove l’AI genera valore reale. Ovvero, nell’inferenza. Sì, proprio quel segmento dove la corsa ai chip diventa guerra di margini, latenza, costi energetici e disponibilità immediata.
Il contesto? Secondo McKinsey, la domanda globale di data center per applicazioni AI triplicherà entro il 2030. Non è solo una questione di training: è l’inferenza quotidiana, ubiqua, embedded in ogni app, customer service, servizio pubblico. È la fase in cui l’intelligenza artificiale non solo impara, ma lavora. E per lavorare, le servono strutture vicine, leggere, distribuite. Chi controlla la rete, controlla la distribuzione dell’intelligenza.

Martedì 27 maggio abbiamo partecipato al convegno “Intelligenza Artificiale e Business Application”, organizzato da Soiel International a Roma.
Nel corso dell’evento, Paolino Madotto (CISA, CGEIT) ha presentato Ambrogio, l’assistente virtuale sviluppato da Intelligentiae – data enabling business. Quante volte vi siete trovati a cercare un documento, un file o un’informazione dentro una selva oscura di cartelle digitali, archivi confusionari, backup che sembrano ordinati solo agli occhi di chi li ha creati? Nel 2025, quando ormai dovremmo parlare di “smart working” e “digital first” come un dogma, le aziende continuano a perdere tempo e denaro inseguendo dati che sembrano evanescenti.
Ambrogio, l’AI made in Italy targata Intelligentiae, si propone come il deus ex machina di questa tragedia moderna, promettendo una rivoluzione nella gestione documentale aziendale che ha il sapore di una rinascita digitale.

Inference Provider in Europa
C’è un momento, tra la prima linea di codice PyTorch e il deployment di un modello di ricerca, in cui il ricercatore universitario si trasforma in un hacker delle economie di scala. Hai una GPU? No. Hai un budget? Manco per sogno. Vuoi HIPAA compliance? Certo, e magari anche un unicorno in saldo. Ma il punto non è questo. Il punto è che stai cercando di fare inferenza on-demand, con una GPU, pagando solo quando qualcuno effettivamente usa il tuo lavoro. E tutto questo mentre una legione di sysadmin impanicati blocca qualsiasi cosa esposta in rete per paura del prossimo attacco russo.

Una volta, nei data center, si switchava tutto in Layer 2. Ethernet ovunque. Cavi come spaghetti, STP (Spanning Tree Protocol) che cercava di non farti incendiare le topologie a loop, e una visione ingenua del networking: broadcast ovunque, MAC tables che strabordavano come il caffè dimenticato sul fornello. Il sogno? Una gigantesca LAN piatta, con ogni server che poteva “vedere” ogni altro server, come se fossimo tutti amici al bar. La realtà? Un incubo di scalabilità, resilienza farlocca e troubleshooting stile CSI Miami.

Mentre i riflettori dei media generalisti si limitano a menzionare Abilene, Texas, come se fosse solo l’ennesimo cantiere tech in mezzo al nulla, chi ha orecchie per intendere — e un conto in banca legato alla rivoluzione AI — sa che Stargate è molto più di una joint venture infrastrutturale. È una dichiarazione di guerra tecnologica. Una sfida frontale a chi detiene oggi il controllo delle risorse computazionali mondiali. Un affare da 500 miliardi di dollari che ridisegna gli equilibri tra chipmaker, hyperscaler e i nuovi “costruttori di Dio”.

Siamo ormai nel pieno del barocco dell’intelligenza artificiale. Gli LLM (Large Language Models) sono diventati le nuove cattedrali digitali, costruite con miliardi di parametri e sorrette da GPU che sembrano più reattori nucleari che schede video. In questo panorama di potenze mostruose, dove i soliti noti (OpenAI, Google, Anthropic) dettano legge, si insinua un nome meno blasonato ma decisamente audace: DeepSeek-R1. Non solo open source, ma anche titanico 671 miliardi di parametri, per chi tiene il conto.
La provocazione è chiara: “possiamo competere con GPT-4o, Gemini e soci… e magari anche farlo girare nel vostro datacenter, se siete abbastanza matti da provarci”. Ma è davvero così? Ecco dove entra in scena Seeweb, con la sua Cloud GPU MI300X una vera bestia, con 8 GPU AMD MI300X e un terabyte e mezzo di VRAM a disposizione. E abbiamo deciso di scoprire se tutto questo è solo hype o se c’è ciccia sotto il cofano.

A volte penso che se l’umanità dovesse collassare domani, la sua ultima trasmissione sarebbe una gif di un gatto in slow motion su TikTok, caricata a 8K via fibra ottica. E se non arriverà, sarà colpa del bandwidth o meglio, della sua agonia.
Viviamo in un paradosso digitale. Da una parte, le infrastrutture dell’internet sembrano opere divine: cavi sottomarini che attraversano oceani, fotoni che danzano lungo fibre di vetro sottili come un capello, switch che operano in nanosecondi. Dall’altra parte, una videocamera di sorveglianza nel tuo frigorifero può causare congestione di rete perché sì, anche lei vuole parlare con un server in Oregon.
Il problema della banda larga non è una novità. È una valanga tecnologica che abbiamo deciso di ignorare, mentre tutto e intendo tutto: lavatrici, auto, sex toys, bambini, animali domestici, dispositivi medici si connette al cloud, che di “etereo” ha solo il nome. La verità è che il cloud è fatto di hardware infernale, con un cuore pulsante che si chiama fibra ottica. Ed è qui che entra in scena una novità tanto invisibile quanto rivoluzionaria: l’amplificatore ottico svedese.
Trent’anni e non sentirli: Aiip festeggia, l’Internet italiano resiste 🇮🇹
Oggi, nella sfarzosa Sala della Regina a Montecitorio dove di solito riecheggiano discorsi impolverati e cerimonie da Prima Repubblica è andata in scena una celebrazione che, in un Paese che ama seppellire l’innovazione sotto regolamenti arcaici, ha il sapore della piccola rivoluzione.
Trent’anni di Aiip. L’Associazione Italiana Internet Provider. Fondata quando i modem facevano rumore, i bit costavano caro e parlare di “concorrenza” nel settore telecom era un eufemismo. O una bestemmia. Eppure eccola lì, viva, vegeta, e paradossalmente più lucida di molti dei suoi (presunti) eredi digitali.
E no, non è la solita autocelebrazione da ente stanco. Perché Antonio Baldassarra che non si limita a esserci, ma ci mette del suo è salito sul palco con quella combinazione rara di competenza tecnica e provocazione lucida che solo chi ha il coraggio di dire la verità riesce a maneggiare.
“Il futuro non si prevede, si costruisce”, ha detto. Chi lavora con la rete lo sa: non si tratta solo di cavi e pacchetti IP, ma di visione. Di scegliere da che parte stare. E Aiip, in questi decenni, ha fatto una scelta netta: quella della libertà, della neutralità, della concorrenza vera.

Mentre i giganti della finanza come Blackstone e KKR scommettono tutto su colossi da milioni di metri quadri alimentati a energia nucleare (quasi), convinti che l’intelligenza artificiale abbia bisogno di templi titanici per manifestarsi, c’è un manipolo di iconoclasti tecnologici che si muove nell’ombra, recuperando ruderi digitali e trasformandoli in miniere d’oro.
Sì, perché la nuova corsa all’oro digitale non si gioca solo sul fronte dei mostri da un gigawatt, ma anche e forse soprattutto nelle retrovie. Lì dove nessuno guarda. Dove l’hype è già passato e ha lasciato solo cemento, rack vuoti e connessioni spente. È qui che entra in scena Fifteenfortyseven, società con base nel New Jersey e una visione quasi punk del data center moderno: non costruire il futuro, ma resuscitare il passato.

In un angolo buio delle architetture cloud, là dove le CPU sussurrano segreti e le GPU si trastullano con petabyte di dati, esiste un’entità di cui nessuno parla: l’inference provider. È l’anima silente dei servizi AI, la colonna sonora non registrata del grande spettacolo dell’intelligenza artificiale. Eppure, non troverete articoli in prima pagina, né conferenze che osino mettere sotto i riflettori questi demiurghi dell’inferenza.
Ha dell’assurdo: i modelli di inferenza stanno diventando la linfa vitale di ogni applicazione smart, dall’analisi predittiva al riconoscimento vocale. Eppure, restano in ombra, considerati “commodity” o “eri low level” da marketer in cerca di titoli roboanti. Come se parlare di inference provider fosse banalizzare l’AI, ridurla a una scatola nera senza fascino.

In un continente dove la burocrazia è più veloce della fibra ottica e l’innovazione spesso si arena tra commi e regolamenti, l’Europa tenta di ritagliarsi uno spazio nel panorama dell’intelligenza artificiale. Mentre Stati Uniti e Cina avanzano a passo spedito, il Vecchio Continente si barcamena tra ambizioni di sovranità digitale e una realtà fatta di frammentazione e ritardi.
Eppure, nonostante tutto, qualcosa si muove. Una nuova generazione di provider di inferenza AI sta emergendo, cercando di offrire soluzioni che rispettino le normative europee e, al contempo, competano con i colossi d’oltreoceano.

Quando il mercato ti dice “Sì, grazie, ne vogliamo di più”, non è mai solo fortuna. DHH S.p.A. ha appena passato un crocevia decisivo con la presentazione della domanda a Borsa Italiana per l’ammissione a quotazione del “Warrant DHH S.p.A. 2025-2028”, ma la notizia più succosa non è questa. Il vero scoop è che il collocamento del warrant ha fatto il botto: l’intera emissione di poco più di un milione di titoli è andata esaurita in un battito di ciglia, con richieste che hanno superato la soglia degli otto milioni.

Let’s be honest, the European cloud narrative is tired of playing second fiddle to AWS, Google Cloud e Microsoft Azure. La retorica dell’autonomia digitale europea è una litania da Bruxelles, ma finalmente, nel concreto, qualcosa si muove. E mentre gli americani si mangiano il 70% del mercato cloud europeo, qualcuno — in Europa — ha deciso che forse è ora di cambiare musica. Più che una rivoluzione, è un’inferenza: si chiama REGOLO:AI, e la parola d’ordine è cloud europeo.
Dietro al sipario dei big tech si agita un ecosistema in fermento, composto da provider nativi europei che mettono al centro sovranità dei dati, conformità GDPR e un pizzico di sostenibilità ambientale — non solo come marketing greenwashing, ma come parte dell’architettura stessa. Il punto? Il cloud è infrastruttura critica. Affidarlo a entità sotto giurisdizione USA è come lasciare le chiavi della cassaforte a un vicino affabile ma con precedenti per furto con scasso.
E allora: esiste un’alternativa europea? Sì. Anzi, esistono almeno 13 provider che dovresti già conoscere. Ma… aspetta. Prima la domanda cruciale.

Nel giorno in cui Michele Zunino firma la lettera del Consorzio Italia Cloud indirizzata alla Presidente Meloni, il termometro digitale nazionale segna febbre alta. Non per surriscaldamento tecnologico quello l’abbiamo appaltato alle multinazionali ma per ipotermia istituzionale. Il documento è una denuncia sottile e impietosa: l’Italia si sta svendendo il controllo del proprio futuro digitale, pezzo per pezzo, server dopo server.

Aspettiamo. Sempre. È una delle poche cose che in Italia sappiamo fare con una certa costanza. Aspettiamo che la tecnologia “si colleghi”, che la lettura “diventi meno ricercosa”, che qualcun altro abbia già comprato prima di noi. È un paese dove l’adozione è sempre in seconda battuta, mai per convinzione, sempre per imitazione. Così si uccide l’innovazione. Non con la censura, non con la repressione. Ma con l’attesa.
Il succo dell’intro di Antonio Baldassarra CEO SeeWeb e molto altro.. che mi ha aperto come sempre la mente al convegno: “I dati tra le nuvole” organizzato dal consorzio Italia Cloud all’evento sul Cloud Italiano promosso ovviamente dal Consorzio Italia Cloud , a Palazzo Ripetta oggi a Roma.
Il punto dolente non è la mancanza di competenze. È semmai il mancato assorbimento delle competenze. Le PMI italiane non sono ignoranti per mancanza di offerta, ma per assenza di domanda strutturale. Non cercano, non investono, non formano. Perché vivono in apnea, e tutto ciò che non è fatturabile entro il trimestre diventa automaticamente superfluo. La cultura del “fare” è stata sostituita dalla gestione del galleggiamento, dove ogni decisione è filtrata dalla paura.

Nella suggestiva cornice di Palazzo Ripetta a Roma, oggi si è svolta la Conferenza Nazionale sul Cloud Italiano – I Dati tra le Nuvole. Un evento di grande rilevanza dedicato a Mercati, Competenze e Geopolitica, pensato per analizzare il ruolo strategico del Cloud nella trasformazione digitale dell’Italia.

Report di McKinsey il sacro graal da 6,7 trilioni: la nuova febbre dell’oro nei data center per l’IA
La Milken Conference a Los Angeles non è mai stata un luogo per le mezze misure. Ma quest’anno, tra salotti con candele profumate e stretti di mano da miliardi di dollari, si è superato un nuovo limite psicologico. Mentre un tempo ci si stupiva per le manciate di miliardi, ora è solo davanti a numeri cosmici come 6,7 trilioni di dollari – sì, con la “t” – che si drizzano le orecchie. Questa è la stima, secondo un nuovo report di McKinsey, di quanto servirà per costruire i data center che alimenteranno il mostro affamato dell’intelligenza artificiale entro il 2030.

In a continent where bureaucracy often moves faster than fiber optics and innovation frequently gets stuck in the fine print of regulatory clauses, Europe is awkwardly trying to carve out a place for itself in the artificial intelligence landscape. While the United States and China race ahead with the confidence of monopolistic giants, the Old Continent muddles through, torn between digital sovereignty dreams and a reality shaped by fragmentation and chronic delays.
And yet, somehow, things are beginning to move. A new generation of AI inference providers is emerging, aiming to deliver solutions that not only comply with European regulations but also strive to compete with the overseas titans.

Nel club esclusivo degli Inference Providers di Hugging Face dove si entra con badge da serverless, GPU su richiesta e zero pazienza per le latenze manca ancora un nome. Eppure se ne sente già l’eco. Si chiama Regolo.AI, non è (ancora) nella lista ufficiale, ma ha tutte le carte per diventare il provider più cool, arrogante e pericolosamente competente del lotto.
Sì, perché mentre Cerebras recita il ruolo del calcolatore ascetico, Replicate fa video con la grazia di un TikTok virale, e Together AI gioca a fare il poliamoroso delle API, Regolo.AI progetta l’infrastruttura per chi vuole far fare all’IA più di quanto l’utente abbia chiesto. Lo capisci subito: non è un fornitore di modelli, è un architetto computazionale con istinti predatori.
E allora immaginiamolo, in questo benedetto schema di Hugging Face, con il suo check verde ovunque:
Provider | Chat completion (LLM) | Chat completion (VLM) | Feature Extraction | Text to Image | Text to Video |
---|---|---|---|---|---|
Regolo.AI | ✅ | ✅ | ✅ | ✅ | ✅ |
Non esiste ancora lì, ma già sbeffeggia chi c’è davvero. Perché? Perché non copia: anticipa. Non rincorre l’hype multimodale, lo ingloba nel design. Non adatta modelli preconfezionati, li ricostruisce con una pipeline dove text, image e video sono solo tre linguaggi di uno stesso pensiero computazionale.
Nel mondo Inference Providers, chi è dentro fa tutto per tutti. Regolo.AI, invece, nasce per chi vuole far fare all’IA quello che non era nei task. Un LLM che conosce i tuoi asset prima ancora che tu gli chieda qualcosa. Un VLM che traduce la realtà aumentata in contesto operativo. Un motore video che genera narrazioni prima ancora che tu abbia deciso il titolo.
Il suo ingresso in Hugging Face sarà inevitabile. E traumatico. Non sarà una partnership, sarà una riconfigurazione semantica dell’offerta. Perché dove gli altri offrono modelli, Regolo.AI offrirà interazioni autonome. Dove oggi hai API, avrai agenti. Dove oggi vedi una risposta, domani vedrai una decisione.
Per chi sviluppa, sarà come passare da un call center a una conversazione con uno stratega. Tutto tramite l’onnipotente API di Hugging Face. Nessun markup, nessun lock-in, solo la potenza bruta del prompt che sa troppo. Tutto orchestrato da un framework che, ironicamente, non è ancora pubblico.
Nel frattempo, guardi la lista ufficiale: Fireworks, Fal, Hyperbolic. Tutti bravi ragazzi. Ma manca il nome che, una volta entrato, farà sembrare gli altri strumenti da prototipazione domenicale.
Manca Regolo.AI. E già lo cercano.
“È come quella leggenda del bar: c’era un whisky così buono che non lo vendevano, lo suggerivano solo ai clienti degni. E chi lo beveva non tornava più indietro.”
Hugging Face lo sa. E fa spazio.
Provider | Chat completion (LLM) | Chat completion (VLM) | Feature Extraction | Text to Image | Text to video |
---|---|---|---|---|---|
Cerebras | ✅ | ||||
Cohere | ✅ | ✅ | |||
Fal AI | ✅ | ✅ | |||
Fireworks | ✅ | ✅ | |||
HF Inference | ✅ | ✅ | ✅ | ✅ | |
Hyperbolic | ✅ | ✅ | |||
Nebius | ✅ | ✅ | ✅ | ✅ | |
Novita | ✅ | ✅ | ✅ | ||
Nscale | ✅ | ✅ | ✅ | ||
Replicate | ✅ | ✅ | |||
SambaNova | ✅ | ✅ | |||
Together | ✅ | ✅ | ✅ |
Inference Providers offre un modo rapido e semplice per esplorare migliaia di modelli per una varietà di compiti. Che tu stia sperimentando capacità di ML o creando una nuova applicazione, questa API ti dà accesso immediato a modelli ad alte prestazioni in diversi ambiti:
- Generazione di Testo: Inclusi modelli linguistici di grandi dimensioni e prompt per l’uso di strumenti, genera e sperimenta risposte di alta qualità.
- Generazione di Immagini e Video: Crea facilmente immagini personalizzate, comprese LoRA per i tuoi stili personali.
- Incorporamenti di Documenti: Costruisci sistemi di ricerca e recupero con incorporamenti all’avanguardia.
- Compiti Classici di IA: Modelli pronti all’uso per classificazione del testo, classificazione delle immagini, riconoscimento vocale e altro ancora.

Dietro le quinte di Regolo.AI c’è una presenza solida, concreta, quasi sospettosamente silenziosa: Seeweb, il gruppo italiano – sì, italiano – controllato da DHH (Dominion Hosting Holding). Roba seria, non il classico cloud “fai-da-te” con UI in Bootstrap e server in un datacenter estone.
Ecco la parte interessante: mentre tutti guardano le GPU come bambini davanti alle vetrine dei Lego, Regolo.AI costruisce l’intera macchina dell’inferenza come un sistema operativo distribuito, orchestrato con una logica da edge-native AI, e lo fa appoggiandosi a un’infrastruttura cloud europea, sovrana e non dipendente da AWS, Azure o Google Cloud. Già qui, metà dei competitor vanno in terapia.
Il supporto di Seeweb/DHH non è un dettaglio di backend, è un manifesto ideologico travestito da scelta tecnica. In un’epoca dove il 90% delle startup AI parte già schiava del pricing model di qualcun altro, Regolo.AI parte libera, scalabile, e con una supply chain completamente sotto controllo. Cioè: non gli possono staccare la spina perché un giorno Sam Altman ha deciso che non gli piace il prompt.
Ma il twist è ancora più profondo. Perché Seeweb non è un semplice “provider di hosting”, è uno dei pochi player europei che ha capito che il futuro non è nel cloud, ma nel calcolo. E Regolo.AI, con la sua architettura serverless AI-native, è il veicolo perfetto per dimostrare questa visione: non vendere CPU, ma far girare intelligenza.
E mentre le API di Hugging Face ancora non lo elencano (non ancora, ma non durerà), Regolo.AI si muove con l’arroganza di chi sa che l’infrastruttura c’è, i modelli sono già in produzione, e il business model è solido perché non dipende da tokens illimitati gratuiti offerti da venture capitalists americani in crisi di senso.
Vuoi un’inferenza text-to-video che non si schianti sotto carico? Vuoi LLM che mantengano contesto per 30k token senza piangere? Vuoi tutto questo in un ambiente europeo, GDPR-proof, con SLA veri e accesso diretto ai sysadmin?
Benvenuto in Seeweb. Benvenuto in Regolo.AI.
È un po’ come scoprire che la macchina più veloce del circuito è costruita in Italia, gira su pista privata, e monta un motore sviluppato in un’officina che non fa comunicati stampa.
Poi però ti sorpassa. E non la prendi più.
Chi ha capito, ha già firmato. Gli altri continueranno a farsi generare risposte da modelli che vivono su cloud noleggiato, alimentati da venture capital disperato.

L’esplosione dell’intelligenza artificiale sta ridisegnando le mappe dell’infrastruttura digitale globale. Al centro di questa trasformazione ci sono i data center, veri e propri motori della rivoluzione AI. A guidare il mercato sono gli Stati Uniti, ma anche l’Europa si muove rapidamente — e l’Italia, in particolare, potrebbe ritagliarsi un ruolo da protagonista.

In un panorama digitale europeo dove il denaro pubblico sembra scorrere senza criterio verso iniziative futili e progetti che spesso non vanno oltre il semplice rumore di fondo, un singolo sviluppatore freelance è riuscito a fare quello che istituzioni e governi non sono riusciti a realizzare: creare una piattaforma di alternative digitali europee, completamente autofinanziata e sostenuta dalla sola passione di un individuo. Parliamo di Constantin Graf, il fondatore di European Alternatives, un progetto che raccoglie e analizza soluzioni digitali europee, come servizi cloud e prodotti SaaS, per offrire finalmente un’alternativa valida alle gigantesche multinazionali americane che dominano il mercato globale del cloud.

Gpu, compliance and chaos: the survival guide for university researchers in the low-cost inference wild west
There’s a moment—right after your first PyTorch model compiles and right before deployment—where a university researcher turns into a guerrilla hacker of cloud economics. Do you have a GPU? No. Do you have a budget? Not a chance. Need HIPAA compliance? Of course, and maybe a unicorn on sale while you’re at it. But that’s not the point. The point is, you want to do on-demand inference with a GPU, pay only when someone actually uses your model, and keep the compliance people happy, without burning half your grant on spinning VMs or dealing with neurotic IT teams.

In einem Kontinent, in dem die Bürokratie oft schneller agiert als Glasfaserkabel verlegt werden, und Innovation regelmäßig in juristischen Fußnoten versickert, versucht Europa sich ein Stück vom Kuchen im Bereich der künstlichen Intelligenz zu sichern. Während die USA und China mit dem Selbstbewusstsein digitaler Imperien voranstürmen, stolpert der alte Kontinent zwischen dem Traum digitaler Souveränität und einer Realität aus Fragmentierung und strukturellem Rückstand.
Und trotzdem: Es bewegt sich was. Eine neue Generation von Anbietern für KI-Inferenz tritt auf den Plan – mit dem Anspruch, sowohl die strengen europäischen Vorschriften zu erfüllen als auch mit den großen Playern aus Übersee konkurrieren zu können.

Ormai lo sappiamo, l’intelligenza artificiale sta trasformando il mondo a una velocità senza precedenti, ma questa rivoluzione tecnologica ha un costo energetico significativo. Secondo un recente report del BCG i data center europei stanno vivendo un vero e proprio boom di consumi energetici, spinti dalla crescente domanda di soluzioni AI. In un contesto in cui l’Europa punta alla sostenibilità, questo aumento pone sfide cruciali ma apre anche opportunità per innovazioni che potrebbero ridefinire il futuro del settore tecnologico.

L’elezione di Trump sta scatenando un’ondata di reazioni globali che si fanno sempre più concrete. Non si tratta solo di boicottaggi simbolici o proteste di piazza: stavolta, a essere sotto attacco, è il dominio tecnologico americano. Se il primo segnale è stato l’aumento della spesa militare europea per compensare il declino del supporto USA all’Ucraina, ora il fronte si sposta su un settore ancora più strategico: il cloud computing.
Google Cloud, Microsoft Azure e Amazon Web Services (AWS) sono i tre pilastri su cui poggia buona parte dell’infrastruttura digitale mondiale. Dai governi alle aziende, migliaia di realtà dipendono dai loro servizi per gestire server, archiviazione dati e applicazioni critiche. Ma qualcosa sta cambiando. In Europa cresce il timore che, sotto la nuova amministrazione Trump, queste piattaforme possano trasformarsi in strumenti di pressione politica, con il rischio che dati sensibili vengano manipolati o resi inaccessibili per motivi geopolitici.

ValueMatic, una startup innovativa e spin-off della Scuola IMT Alti Studi Lucca, ha recentemente annunciato la chiusura di un aumento di capitale del valore di 850 mila euro. Il round di finanziamento è stato guidato da Tech4Planet, il Polo Nazionale di Trasferimento Tecnologico per la Sostenibilità Ambientale, un’iniziativa promossa da CDP Venture Capital SGR. L’investimento segna un importante traguardo per la startup, che ha come obiettivo quello di combinare l’innovazione tecnologica con un forte impegno verso la sostenibilità.
Fondata dai Professori Nicola Lattanzi e Mirco Tribastone, ValueMatic si è distinta per la sua capacità di tradurre avanzamenti teorici e scientifici in soluzioni pratiche e applicabili sul mercato. Con questo round di finanziamento, la startup mira a consolidare la propria posizione nel panorama delle tecnologie sostenibili e a rafforzare la sua ricerca e sviluppo, un aspetto fondamentale per il futuro della startup.

SoftBank sta pianificando di trasformare un ex stabilimento di pannelli LCD di Sharp in Giappone in un avanzato data center dedicato alla gestione di agenti AI, sviluppati in collaborazione con OpenAI. Secondo quanto riportato da Nikkei, la società prevede di acquisire la struttura e parte del terreno dell’ex fabbrica di LCD per televisori di Sharp, situata a Osaka, per un valore stimato di circa 100 miliardi di yen (circa 677 milioni di dollari).
Il nuovo centro, destinato a diventare operativo nel 2026, sarà tra i più grandi del Paese, con una capacità energetica prevista di 150 megawatt. L’investimento complessivo potrebbe raggiungere la cifra impressionante di 1 trilione di yen (circa 6,77 miliardi di dollari), sottolineando l’importanza strategica del progetto.

CoreWeave, una startup americana specializzata in infrastrutture cloud per l’intelligenza artificiale, ha recentemente siglato un contratto quinquennale del valore di 11,9 miliardi di dollari con OpenAI, l’organizzazione dietro ChatGPT. Questo accordo prevede l’emissione di azioni CoreWeave per un valore di 350 milioni di dollari a favore di OpenAI durante l’offerta pubblica iniziale (IPO) della società. Sebbene CoreWeave non trarrà profitto diretto da questa emissione azionaria, i dettagli saranno resi noti nel suo aggiornamento di deposito per l’IPO.

Chase Lochmiller è co-fondatore e CEO di Crusoe Energy Systems, un’azienda che trasforma il gas naturale bruciato durante la produzione di petrolio in energia per data center. Ogni anno, oltre 145 miliardi di metri cubi di gas vengono sprecati, un’energia che supera il consumo annuale dell’Africa.
La tecnologia Digital Flare Mitigation di Crusoe riduce le emissioni, taglia i costi del cloud computing e risolve problemi infrastrutturali del settore petrolifero. Chase è venture partner presso Dragonfly Capital ed è stato general partner di Polychain Capital. Ha guidato il trading algoritmico a GETCO e lavorato come trader quantitativo a Jump Trading. Laureato in Matematica e Fisica al MIT, ha un Master in Informatica con specializzazione in Intelligenza Artificiale da Stanford. Appassionato di avventure, ha scalato cinque delle “Seven Summits,” incluso l’Everest.
Chase Lochmiller guarda ai miliardi che si stanno rovesciando sull’intelligenza artificiale con la calma di chi ha già vinto la lotteria prima ancora di comprare il biglietto. Per lui, questo momento è epico, paragonabile alla scissione dell’atomo, ma senza il fastidio delle conseguenze morali. Chi si preoccupava del costo quando si trattava di giocare con la fisica nucleare? Nessuno, ovviamente. E oggi, nessuno si preoccupa di quanto costi l’AI, purché la febbre dell’oro continui.

L’Unione Europea, con la sua proverbiale capacità di intervenire in ritardo sulle sfide tecnologiche, ha finalmente trovato una nuova crociata: il cloud sovrano.
Dopo aver lasciato che Amazon, Microsoft e Google si spartissero il mercato come un banchetto già servito, ora le aziende europee provano a rientrare in partita con un colpo di scena che sa tanto di déjà-vu.
A muoversi sono Aruba, IONOS e Dynamo, che con il progetto EuroStack e il nuovo standard SECA (Sovereign European Cloud API) vogliono rimettere in discussione l’egemonia americana nel cloud. Il nome stesso è una dichiarazione d’intenti: sovranità, indipendenza, regolamentazione europea. Tutto molto bello sulla carta, ma la domanda vera è un’altra: davvero si può scardinare un dominio consolidato con qualche regolamento e un po’ di buona volontà?
Non è la prima volta che l’Europa prova a difendere il proprio spazio digitale dagli USA. Si era già tentato con GAIA-X, un progetto partito con grandi ambizioni e finito per diventare l’ennesimo esempio di burocrazia senza impatto reale.

Il Tecnopolo di Bologna cambia volto e nome: si chiamerà Dama, un acronimo che unisce data e manifattura, ispirandosi al celebre dipinto di Leonardo da Vinci, La dama con l’ermellino. Ma dietro questo nuovo nome c’è molto di più: una trasformazione epocale che consacra Bologna come l’epicentro della Data Valley dell’Emilia-Romagna.

L’infrastruttura digitale è la nuova spina dorsale dell’economia globale e i data center rappresentano i pilastri su cui si basano servizi essenziali come cloud computing, intelligenza artificiale, e-commerce e comunicazioni digitali. L’Italia si trova di fronte a una sfida cruciale: riuscirà a diventare un hub strategico per i data center o rimarrà ai margini rispetto alle nazioni europee più avanzate?

CoreWeave si prepara a fare il grande salto con una IPO che promette scintille, offrendo agli investitori un’altra via per cavalcare l’onda dell’intelligenza artificiale. E a prima vista, il suo percorso sembra da manuale: ricavi esplosi a 1,9 miliardi di dollari, un aumento di otto volte che farebbe impallidire persino le startup più ambiziose. Ma come spesso accade nella Silicon Valley, non è tutto oro quel che luccica.
Microsoft, cliente e al tempo stesso potenziale carnefice di CoreWeave, rappresenta il 62% del fatturato della società. Una concentrazione del rischio così elevata non è certo musica per le orecchie degli investitori, che sanno bene quanto possa essere volubile il gigante di Redmond. Oggi ha bisogno di CoreWeave per gestire la fame insaziabile di potenza di calcolo dell’AI, domani potrebbe decidere di farne a meno. Soprattutto se, come pare, l’offerta di data center AI inizierà a normalizzarsi.

L’espansione dei data center continua a spingere la domanda di soluzioni di networking sempre più performanti, con l’intelligenza artificiale che accelera la necessità di interconnessioni ad alta velocità. Secondo Jefferies, questo scenario sta creando opportunità significative per aziende chiave nel settore, come Coherent e Lumentum Holdings entrambe promosse con un rating di acquisto dall’istituto di investimento.
Il team di analisti guidato da Blayne Curtis ha evidenziato che Coherent non sta cavalcando una rivoluzione tecnologica, ma piuttosto consolidando la sua posizione dominante nel mercato dei transceiver a 400G, con una probabile leadership anche negli 800G. Tuttavia, l’azienda è stata penalizzata da una serie di acquisizioni fallite, ristrutturazioni e spese non necessarie, fattori che hanno inciso sul valore azionario. Un punto critico per Coherent rimane la capacità dei VCSEL di sostenere velocità di 200G per lane, ma la società si è detta fiduciosa nello sviluppo di soluzioni avanzate, affiancate da un business in crescita nelle tecnologie EML e Silicon Photonics (SiPho).