Il cloud non è più una nuvola. La rete non è più un grafo astratto. Il data center non è più un capannone in Oregon o una cattedrale di silicio in Irlanda. Quando la China Aerospace Science and Technology Corporation dichiara di voler costruire un’infrastruttura di intelligenza digitale spaziale da gigawatt entro cinque anni, non sta facendo storytelling. Sta dicendo che la fisica, l’energia e la geopolitica hanno raggiunto un punto di rottura. E che l’intelligenza artificiale, come ogni sistema affamato di elettroni, sta cercando una via di fuga.
Data center in orbita e space computing. Non sono slogan futuristi. Sono la conseguenza logica di un settore che consuma più potenza di quanta la politica sia disposta a concedere e più elettricità di quanta le reti terrestri riescano a distribuire senza esplodere in proteste, blackout o regolamenti emergenziali. Il problema non è se porteremo l’AI nello spazio. Il problema è chi lo farà per primo, con quali regole, e soprattutto chi pagherà quando qualcosa andrà storto.
CASC parla di integrazione cloud, edge e terminal direttamente in orbita. Tradotto dal linguaggio dei comunicati ufficiali, significa eliminare il collo di bottiglia più costoso e più lento dell’economia dei dati: il downlink. Oggi osserviamo la Terra, raccogliamo segnali, immagini, telemetrie, e poi aspettiamo. Aspettiamo finestre di comunicazione, larghezza di banda, autorizzazioni, congestioni. Domani, se il piano cinese dovesse funzionare, i dati verrebbero elaborati dove nascono. Decisioni prese in orbita, modelli eseguiti nello spazio, output inviati a Terra solo quando serve. È edge computing portato al suo estremo logico. Non ai margini della rete, ma fuori dal pianeta.
Elon Musk, come spesso accade, lo dice in modo più brutale e più semplice. Il modo più economico per far girare giganteschi computer di intelligenza artificiale non sarà sulla terraferma. Li lanci in orbita, li alimenti con il Sole, e lasci che i modelli macinino token mentre sotto di loro il pianeta discute di autorizzazioni ambientali. Musk non sta facendo poesia. Sta applicando una logica industriale spietata. L’energia solare nello spazio è continua, non intermittente. Niente nuvole, niente notti, niente comitati locali. Un flusso costante di fotoni che, in teoria, può alimentare un data center senza carbone, senza gas e senza elettori arrabbiati.
La dimostrazione non è più teorica. Starcloud-1 ha volato con un NVIDIA H100 e ha eseguito Gemma di Google in orbita. Una demo, certo. Piccola, simbolica, quasi un esercizio di pubbliche relazioni. Ma sufficiente a rompere un tabù. Se un acceleratore progettato per un data center terrestre può funzionare nello spazio, allora l’idea smette di essere fantascienza. Diventa una roadmap. Ed è qui che la conversazione si fa interessante, perché la tecnologia è solo il primo livello del problema.
Il secondo livello è la fisica che non perdona. Le radiazioni non leggono i white paper. I detriti spaziali non rispettano le roadmap quinquennali. Un data center in orbita non può permettersi il lusso di una manutenzione programmata. Non esiste il camion di riparazione. Non esiste il tecnico reperibile. Ogni bit di affidabilità deve essere progettato prima del lancio, perché dopo il lancio il margine di intervento si avvicina pericolosamente allo zero. I sistemi devono essere ridondanti, resilienti, quasi paranoici. E ogni grammo in più di ridondanza costa milioni.
C’è poi un dettaglio che viene spesso liquidato come nota a piè di pagina ma che in realtà è il cuore del problema: il costo del fallimento. Quando un data center terrestre diventa obsoleto, lo si spegne, lo si riconverte, lo si svaluta a bilancio. Quando un data center spaziale fallisce, diventa spazzatura orbitale. Un rischio per altri asset, un problema assicurativo, un potenziale incidente diplomatico. Chi paga quando un cluster da centinaia di milioni smette di rispondere e resta lì, a 500 chilometri sopra le nostre teste, a fare da proiettile ad alta velocità?
Il periodo 2027-2028 viene indicato come la finestra di prova. Non perché allora avremo improvvisamente risposte definitive, ma perché a quel punto le scuse finiranno. Se entro quella data non esisteranno metriche credibili di uptime, modelli assicurativi sostenibili e un quadro minimo di responsabilità legale, l’idea del data center in orbita resterà confinata a demo spettacolari e slide per investitori. I veri vincitori non saranno quelli con il chip più veloce o il pannello solare più efficiente. Saranno quelli in grado di rispondere a domande noiose e fondamentali. Quanto tempo può restare operativo un sistema senza intervento umano. Quanto costa assicurarne il fallimento. Chi risponde dei danni collaterali.
C’è anche una dimensione geopolitica che merita più attenzione di quanta ne stia ricevendo. Un’infrastruttura di intelligenza artificiale spaziale non è solo un asset industriale. È una leva strategica. Elaborare dati nello spazio significa ridurre la dipendenza da infrastrutture terrestri vulnerabili, soggette a sanzioni, sabotaggi, pressioni politiche. Per un attore statale come la Cina, questo non è un dettaglio. È un moltiplicatore di autonomia. Per gli Stati Uniti e per l’Europa, è un campanello d’allarme che suona mentre si discute ancora di dove costruire il prossimo data center terrestre senza far arrabbiare nessuno.
Lo spazio viene presentato come una fuga dai vincoli, ma in realtà ne introduce di nuovi, più rigidi e meno negoziabili. Sulla Terra puoi pagare di più per l’energia. Puoi negoziare permessi. Puoi spostare carichi. In orbita no. In orbita ogni errore di progettazione viene amplificato. Ogni decisione sbagliata diventa permanente. È una forma estrema di capitalismo ingegneristico, dove il tempo di risposta agli errori si misura in anni e non in sprint.
Eppure l’attrazione resta fortissima. Perché l’intelligenza artificiale, così come la stiamo costruendo, non è sostenibile con le infrastrutture attuali. I modelli crescono, i parametri esplodono, i consumi energetici seguono. Le reti elettriche sono lente, politiche, frammentate. Lo spazio appare come l’unico luogo dove la curva può continuare a salire senza chiedere permesso. È una soluzione elegante e terribile allo stesso tempo. Elegante perché sfrutta una risorsa abbondante e pulita. Terribile perché sposta il rischio fuori dal campo visivo immediato, rendendolo più difficile da gestire e da attribuire.
C’è una frase che circola tra gli ingegneri aerospaziali, detta con mezzo sorriso. Nello spazio tutto funziona perfettamente. Finché non smette di funzionare. Quando accade, non c’è rollback. Non c’è hotfix. C’è solo silenzio radio. Portare l’intelligenza artificiale in orbita significa accettare questa logica fino in fondo. Significa progettare sistemi che non possono permettersi di sbagliare. Significa anche ammettere che, se sbagliano, il conto sarà salato e pagato da qualcuno che oggi non è ancora stato chiaramente identificato.
Forse è questo il vero nodo della questione. Non la fattibilità tecnica, che verrà dimostrata. Non l’efficienza energetica, che sulla carta è imbattibile. Ma la governance di un’infrastruttura che vive fuori dal pianeta, consuma risorse globali e genera rischi condivisi. Finché queste domande resteranno senza risposta, l’intelligenza artificiale spaziale resterà sospesa in una zona grigia, affascinante e inquietante. Proprio come l’orbita in cui qualcuno, molto presto, proverà a far girare il prossimo grande modello.
Reuters: https://www.reuters.com/science/china-vows-develop-space-tourism-explore-deep-space-it-races-us-2026-01-29/?utm_source=Generative_AI&utm_medium=Newsletter&utm_campaign=ai-agents-new-bot-religion-on-moltbook&_bhlid=08092953a10af6218ef817be5a8a5eb7ccdc3680