C’è un odore particolare che si sente sempre all’apice di una bolla finanziaria: un mix di euforia da spreadsheet, dichiarazioni pubbliche ottimiste e, dietro le quinte, banche d’investimento che cercano una porta d’uscita elegante prima che le luci si spengano. Ecco, questo è esattamente il profumo che emana oggi il mercato dei data center per l’intelligenza artificiale. Un boom da trilioni di dollari gonfiato da fondi private equity, REIT iper-leveraggiati e una fede quasi religiosa nella crescita esponenziale dell’AI. Ma la nuova parola d’ordine è “riciclo del capitale”, e come ogni nuovo mantra finanziario, suona meglio di quanto non odori.
Il problema, come sempre, non è l’infrastruttura in sé. Nessuno mette in discussione che un hyperscale data center da 250 megawatt, carico di server NVIDIA e immerso in liquido refrigerante da fantascienza, sia una meraviglia ingegneristica. Il problema è l’assunto finanziario sottostante: che ci sarà sempre un prossimo investitore disposto a pagare un multiplo più alto, una rendita più bassa, una scommessa più grossa. E quando Goldman Sachs inizia a parlare apertamente di “costruire la rampa d’uscita” per i primi investitori, dovremmo forse tutti smettere di parlare di crescita e iniziare a parlare di exit strategy. (qui il Report)
La logica è semplice e, allo stesso tempo, perversa. I fondi di private equity costruiscono o acquisiscono data center per AI in zone dove l’energia è relativamente economica e l’accesso alla fibra ottica è abbondante. Una volta firmati contratti pluriennali con colossi come Microsoft o Amazon, aspettano che l’immobile sia “stabilizzato”, cioè che generi flussi di cassa prevedibili, per poi rivendere le quote a investitori più pigri: assicurazioni, fondi pensione, gestori di portafoglio con appetito per rendimenti noiosi ma sicuri. Il tutto avviene in un circuito che Goldman Sachs chiama, con un certo lirismo darwiniano, il “flywheel” del capitale.
Peccato che questo volano finanziario rischia di trasformarsi in un boomerang. Perché ogni step di questa giostra richiede una condizione fondamentale: che ci sia qualcun altro disposto ad acquistare un asset illiquido, costoso da mantenere e difficile da rivalutare, solo perché “è l’AI, baby!”. Ma come ogni CIO di fondo previdenziale ben sa, i numeri devono funzionare. E funzionano solo se i contratti di locazione diventano blindati, senza clausole di uscita anticipata, lunghi almeno 20 anni e con garanzie che nemmeno un patto prematrimoniale di Hollywood può offrire.
Il paradosso è che gli stessi operatori che parlano di rischio calcolato stanno costruendo in aree dove i tenant non sono nemmeno stati identificati. Sì, ci sono data center da miliardi in fase di costruzione speculativa, come se stessimo parlando di villette a schiera in periferia durante il boom immobiliare del 2006. È il ritorno della logica “build it and they will come”, solo che questa volta i “they” sono modelli di linguaggio che consumano più elettricità di una nazione europea e la cui domanda effettiva è ancora in gran parte una proiezione PowerPoint.
Dietro a tutto questo, c’è il gigantesco equivoco tecnologico che il mercato sta ignorando con zelo ideologico. Quanti data center servono realmente per addestrare modelli di AI? E quanti ne servono solo per farli girare? La differenza è tutto tranne che banale. Addestrare un modello come GPT-4 richiede settimane di calcolo intensivo su GPU customizzate, ma una volta fatto, servono meno risorse per servirlo a milioni di utenti. È come costruire una raffineria per un’unica raffica di produzione e poi lasciarla in funzione solo per qualche barile al mese. Altro che efficienza.
Il white paper di Goldman Sachs, “Powering the AI Era”, è un capolavoro di realismo travestito da ottimismo. Dietro la patina di entusiasmo per il futuro dell’intelligenza artificiale, emerge una narrativa più interessante: quella di un’industria che sta cercando disperatamente di ridurre il proprio rischio spalmando le proprie scommesse su un numero maggiore di mani. Non è una truffa, sia chiaro. È semplicemente la fisiologia di un mercato maturo che ha già metabolizzato la fase pionieristica ed è entrato in quella della financialization. E lì, come sanno bene a Wall Street, si guadagna meno con l’innovazione e più con l’arbitraggio di rischio.
Il numero chiave da tenere a mente è 25 gigawatt. È la quantità di potenza che è stata aggiunta alla capacità globale dei data center tra il 2019 e il 2024. A occhio e croce, stiamo parlando di oltre 1.000 miliardi di dollari investiti in infrastrutture fisiche, gran parte delle quali dedicate all’AI. Chi pagherà il conto? O meglio: chi vorrà comprarsi la seconda tranche di questi asset, una volta che gli sviluppatori avranno incassato la plusvalenza? Il fatto che la risposta sia “fondi pensione e assicurazioni” dovrebbe far scattare più di un allarme.
Perché questi investitori, per definizione, odiano l’incertezza. E l’incertezza, nel mondo dell’AI, è tutto. Non sappiamo quali modelli sopravvivranno, quale architettura hardware diventerà dominante, se le attuali GPU saranno ancora rilevanti tra 24 mesi o se l’edge computing decentralizzato renderà obsolete molte delle strutture centralizzate. Investire in un data center oggi è come costruire una centrale a carbone nel 2012: un asset potenzialmente inutilizzabile entro pochi anni, soprattutto se le esigenze computazionali si spostano verso logiche più efficienti o distribuite.
Ciò che il linguaggio forbito dei banchieri chiama “capital recycling” è, in realtà, un eufemismo per la grande rotazione del rischio. I primi investitori guadagnano sull’entusiasmo, i secondi sperano nel rendimento stabile, i terzi si ritrovano con un asset fisico obsoleto in mano. È già successo con le torri 5G, con i cavi sottomarini e con l’infrastruttura cloud delle generazioni precedenti. Ma qui la scala è più grande, i costi sono più alti e l’asticella tecnologica si muove a una velocità che nessun documento di duecento pagine potrà mai prevedere.
A tutto ciò si aggiunge l’ironia finale: in un’epoca in cui l’intelligenza artificiale dovrebbe ottimizzare, semplificare e ridurre i costi, stiamo assistendo al paradosso di dover costruire infrastrutture fisiche sempre più costose, complesse e centralizzate per supportarla. Una specie di distopia energetica mascherata da progresso. È come costruire grattacieli sempre più alti per ospitare server che avrebbero potuto stare benissimo nel sottoscala, se solo ci fossimo accontentati di modelli meno megalomani.
Forse il vero futuro non è nell’accumulazione di silicio, ma nella decentralizzazione, nella sobrietà computazionale, nella sostenibilità dell’algoritmo. Ma questo, ovviamente, non fa guadagnare nulla a chi oggi ha bisogno di piazzare un pacchetto da otto miliardi con un IRR del 12% entro fine trimestre. Ecco perché, nel frattempo, il mantra resta sempre lo stesso: investire, costruire, rivendere. Riciclare il capitale, sì, ma anche il rischio. E magari, con un po’ di fortuna, anche la narrativa.
Finché dura.