Quando si osserva la curva esponenziale dei consumi energetici dell’intelligenza artificiale, la sensazione è quella di assistere a un gigantesco paradosso moderno in cui la voglia di potenza finisce per scontrarsi con i limiti fisici del pianeta. L’impressione è che la Terra stessa stia diventando una sorta di data center sovraccarico, incapace di offrire la banda energetica necessaria a un’industria che cresce più velocemente della nostra capacità di generare elettricità. Attorno a questa orbita concettuale ruotano altre due espressioni emergenti, energia per l’AI e computazione orbitale, che stanno ridefinendo il dibattito strategico delle grandi compagnie tecnologiche.

Quando i CEO più influenti del pianeta iniziano a parlare pubblicamente di infrastrutture in orbita, non è per nostalgia della fantascienza degli anni Settanta. È perché i conti non tornano più. Il consumo energetico dei modelli generativi avanza con una fame difficile da contenere e il mercato elettrico non è preparato a reggere il peso della nuova economia cognitiva. L’autorità federale americana ha già segnalato una condizione di emergenza, con dichiarazioni ufficiali che raccontano un’ansia evidente. Alcuni think tank accostano questo quadro agli anni in cui la rivoluzione industriale divorava carbone con la stessa spavalderia con cui oggi l’AI divora kilowattora. La storia non si ripete, ma fa rima. La differenza è che questa volta il piano B si trova oltre l’atmosfera.

La narrazione che descrive i colossi come Musk, Bezos e Pichai seduti a un tavolo orbitale non è poi così distante dalla realtà. Musk, per esempio, ha già fatto ricorso a turbine a gas dedicate per alimentare la sua xAI. Una scelta che nella Valley è stata interpretata come un segnale quasi darwiniano, un modo diretto per aggirare le lentezze della rete elettrica tradizionale. OpenAI ha invece spostato in avanti l’asticella, chiedendo la creazione di cento gigawatt di nuova capacità ogni anno. Una cifra talmente enorme da far sembrare minuscole le ambizioni delle rinnovabili terrestri. È in questo vuoto di scalabilità che emerge la computazione orbitale come possibile via di fuga, con un fascino che mischia la concretezza del business con una scorza epica alla Jules Verne.

La teoria è nota ai fisici da decenni. Lo spazio offre un’esposizione solare continua, priva di nuvole, temporali o cicli notturni. L’efficienza energetica potenziale supera qualunque pannello montato a terra. L’assenza di atmosfera elimina il problema del raffreddamento, uno dei fattori più costosi nella costruzione di un data center. La regolamentazione diventa improvvisamente meno ostile, perché il perimetro giurisdizionale in orbita è una landa meno affollata di vincoli. Il costo di lancio sta precipitando grazie al riutilizzo dei vettori e il ritmo della produzione satellitare sta accelerando al punto che la manifattura spaziale sembra a un passo dalla sua industrializzazione di massa. La visione diventa quindi meno utopica e più simile a una curva dei costi proiettata verso un equilibrio desiderabile.

Il panorama delle mosse strategiche non potrebbe essere più eloquente. Jeff Bezos continua a descrivere la Luna come un’estensione logica del sistema industriale terrestre. La sua idea di piattaforme lunari per la costruzione di hardware destinato all’orbita non è più una provocazione ma una direzione d’investimento deliberata. Google, intanto, ha ufficializzato Project Suncatcher, un programma che porterà entro il 2027 due prototipi di satelliti per testare algoritmi di machine learning direttamente nello spazio. Nvidia ha stretto un accordo con Starcloud per esplorare architetture di calcolo orbitale ad alte prestazioni. Musk sogna una generazione evoluta di satelliti Starlink capaci di ospitare moduli AI autonomi, alimentati da pannelli solari potenziati e intercollegati da laser ad altissima latenza. Sono passaggi che compongono un’immagine ancora frammentata, ma la traiettoria è chiara. La competizione non è più soltanto tra cloud provider, ma tra ecosistemi capaci di espandersi oltre il pianeta.

Il dettaglio più intrigante riguarda i concept di lungo periodo che prevedono fabbriche lunari con stampa additiva avanzata, pronte a produrre in serie microstrutture di computazione e a lanciarle in orbita tramite catapulte elettromagnetiche. Questi progetti ricordano le fantasie della NASA degli anni Ottanta, ma hanno acquisito un realismo nuovo. La combinazione tra AI generativa, robotica autonoma e riduzione dei costi spaziali crea una specie di triangolo d’oro che rende plausibile ciò che una generazione fa sarebbe stato materiale da romanzo di Asimov. C’è perfino chi immagina costellazioni di micro data center spaziali che si auto organizzano come uno sciame intelligente, con la capacità di ricalibrare automaticamente la potenza di calcolo in base alla domanda terrestre.

La domanda cruciale riguarda il valore aggiunto effettivo dei data center spaziali rispetto ai tradizionali hub terrestri. La risposta non è lineare, ma ruota attorno a un concetto di elasticità infinita. Il pianeta ha vincoli di terreno, di temperatura, di regolamentazione e soprattutto di infrastrutture elettriche. L’orbita no. In un contesto in cui la crescita dell’AI potrebbe moltiplicare il fabbisogno energetico globale in modo vertiginoso, l’orbita appare come la prima alternativa realmente scalabile. Un ingegnere di un grande hyperscaler ha sintetizzato la situazione con una frase pungente, diventata una mezza citazione cult: “Se la rete non ce la fa, si va di sopra”. Una battuta, certo, ma anche un’ammissione strategica.

La magia di questo scenario è che la computazione orbitale risolve alcune asimmetrie senza introdurne di nuove. Non richiede nuove centrali a carbone. Non consuma suolo fertile. Non genera le stesse esternalità negative dei mega centri terrestri. Il limite resta il costo iniziale e la complessità logistica, ma quel limite si sta assottigliando con una rapidità sorprendente. La storia dell’innovazione insegna che quando una curva dei costi cala con sufficiente decisione, le aziende non aspettano permessi accademici per muoversi. Lo fanno e basta. E lo fanno in modo aggressivo.

Questo movimento porta con sé una conseguenza culturale rilevante. I leader tecnologici stanno iniziando a ragionare in un paradigma che non considera più la Terra come l’unico scenario operativo. È un cambio di mentalità che ricorda l’epoca in cui Internet è passata da curiosità militare a infrastruttura civica globale. La computazione orbitale non è ancora matura, ma la narrativa è già cambiata. Non si parla più di se, ma di quando. Un osservatore attento potrebbe notare un dettaglio simbolico: i briefing interni delle grandi compagnie non usano più il termine limite energetico, preferiscono parlare di soglia planetaria. La differenza è sottile, ma potente.

La domanda finale, quella che tutti fingono di ignorare, riguarda ciò che significherà per l’AI stessa. Se i modelli di prossima generazione potranno contare su un’energia tanto abbondante quanto quella di un sole privato, le capacità computazionali schizzeranno verso orizzonti oggi impensabili. L’idea che l’AI possa evolvere oltre le restrizioni attuali non è più teoria astratta. È un progetto industriale. La computazione orbitale potrebbe essere la prima vera infrastruttura post terrestre della storia umana. I primi segnali dicono che la corsa è cominciata. I risultati arriveranno con un tempismo che sorprenderà molti. Chi segue da vicino queste dinamiche lo vede chiaramente: le aziende non stanno più pianificando attorno ai limiti della rete elettrica terrestre, stanno iniziando a disegnarne una completamente nuova fuori dal pianeta.