Microsoft Fairwater Wisconsin non è un nome che evoca poesia, ma piuttosto acciaio, cavi sotterranei e flussi di corrente elettrica che potrebbero alimentare una città di medie dimensioni. Il progetto da 3,3 miliardi di dollari in costruzione a Mount Pleasant, con un gemello da 4 miliardi già annunciato, rappresenta la trasformazione della campagna americana in un epicentro di calcolo per l’intelligenza artificiale. Non si tratta più di server farm come quelle che ospitavano il vecchio internet fatto di pagine statiche e banner pubblicitari, qui parliamo di un’infrastruttura concepita per addestrare i modelli AI più complessi del pianeta, a partire da quelli di OpenAI, fino a diventare la spina dorsale delle stesse operazioni Microsoft.

Chi pensa che la Silicon Valley sia ancora l’unico tempio tecnologico è rimasto fermo agli anni 2000. Oggi l’asse del potere si misura dove c’è energia a sufficienza, dove si possono scaricare migliaia di tonnellate di acciaio, e dove la politica è disposta a concedere incentivi per trasformare un terreno agricolo in una macchina di calcolo planetaria. Wisconsin, dunque, come nuova Gerusalemme del calcolo. Una scelta che pare quasi controintuitiva, ma che diventa chiarissima quando si guarda ai requisiti infrastrutturali: terreni vasti, accesso a linee elettriche ad alta capacità, manodopera disponibile, università con cui stringere partnership e un governo locale ansioso di attrarre investimenti miliardari.

Gli ingegneri di Redmond descrivono il complesso come un supercomputer distribuito su 315 acri, con tre edifici per un totale di oltre un milione di piedi quadrati di superficie utile. Qui si insedieranno centinaia di migliaia di GPU Nvidia, orchestrate come una sinfonia di silicio, collegate da interconnessioni a latenza ridotta che consentono di trattare set di dati di dimensioni abnormi. Ogni rack, dicono, può ospitare 72 GPU collegate da NVLink. Tradotto: una capacità di calcolo progettata per affrontare modelli con centinaia di miliardi di parametri, quando oggi i cosiddetti frontier model già faticano a stare in piedi. È il tentativo esplicito di Microsoft di assicurarsi che, quando l’AI successiva a GPT-5 nascerà, sarà in grado di farlo sotto il suo tetto di acciaio e fibra ottica.

Il raffreddamento è il vero cuore dell’operazione. Le GPU, si sa, hanno un appetito vorace di energia e generano calore come una centrale elettrica in miniatura. Microsoft dichiara che oltre il 90 per cento del carico termico verrà gestito con sistemi a liquido a circuito chiuso, ricircolati senza sprechi significativi. Il resto con aria esterna, usando acqua solo in situazioni climatiche estreme. Per dare un’idea: il consumo idrico annuo stimato equivale a quello di un ristorante medio, o a quello che un campo da golf a 18 buche utilizza in una settimana estiva. Una comparazione che suona come un’operazione di marketing ambientale ben studiata, ma che di fatto mostra la volontà di placare in anticipo i sospetti su un possibile drenaggio delle risorse locali. Non è un caso che ogni comunicato aziendale enfatizzi la costruzione parallela di un impianto solare da 250 megawatt, parte di un impegno dichiarato a bilanciare ogni kilowattora fossile con equivalenti rinnovabili.

Il discorso sulla sostenibilità è centrale, perché senza questa narrativa ogni progetto di data center AI avanzato oggi rischierebbe la condanna pubblica immediata. L’opinione pubblica tollera l’idea che l’intelligenza artificiale possa scrivere poesie mediocri o generare codici difettosi, ma non accetta più che queste innovazioni brucino tonnellate di carbone di nascosto. Ecco perché Microsoft Fairwater Wisconsin viene presentato come un gioiello ingegneristico che non solo calcola più di chiunque altro, ma lo fa anche con una coscienza ecologica lucidata a specchio.

Dietro questa vetrina verde c’è però la cruda realtà: un data center di questo tipo consumerà più energia di quella necessaria ad alimentare decine di migliaia di abitazioni. Il calcolo è semplice. Ogni GPU Nvidia GB200 ha un assorbimento che supera abbondantemente i 600 watt. Moltiplicato per centinaia di migliaia di unità, si ottengono numeri da capogiro. Anche con compensazioni, il peso infrastrutturale resta enorme. La verità è che queste macchine stanno ridisegnando la mappa energetica globale, e chi possiede il calcolo possiede la leva geopolitica del futuro.

Microsoft sa bene che la sua alleanza con OpenAI è un’arma a doppio taglio. Da un lato la partnership le garantisce l’accesso privilegiato ai modelli più avanzati, dall’altro la espone alla volatilità di una startup che potrebbe un giorno decidere di rendersi indipendente. Investire miliardi in un’infrastruttura propria significa blindare il futuro e togliere margini di manovra ai concorrenti. Non è un caso che lo stesso giorno in cui veniva annunciato Fairwater, Google spingeva sulle TPU di ultima generazione, mentre Nvidia vendeva pacchetti chiavi in mano per chi vuole costruirsi il proprio mini-supercomputer AI. La corsa al calcolo non è un vezzo tecnologico, è la partita vera della prossima decade.

Qualcuno obietterà che questo non è il primo tentativo di spostare il baricentro dell’innovazione fuori dalla California. Foxconn, la stessa che aveva promesso un megaprogetto nel Wisconsin anni fa, aveva lasciato sul terreno solo capannoni vuoti e promesse mancate. La differenza qui è che Microsoft non produce gadget ma compra energia e silicio, due materie prime oggi più preziose del petrolio. La probabilità di vedere questi edifici completati e funzionanti è molto più alta, anche perché dietro ci sono contratti federali, partnership con università locali, incentivi fiscali e soprattutto una domanda esplosiva di capacità AI che non mostra segni di rallentamento.

La dimensione occupazionale è un altro tassello della narrativa. Cinquecento posti di lavoro diretti al lancio, che saliranno a ottocento con il secondo impianto. Numeri modesti se confrontati con il miliardo investito per ogni cento lavoratori, ma la leva politica di dire “abbiamo creato occupazione qualificata” resta potente. Il vero impatto economico però sarà indiretto: appalti edilizi, contratti per energia e manutenzione, corsi di formazione per nuove competenze tecniche, ricadute per l’indotto locale. È il manuale standard delle grandi aziende tecnologiche che piantano bandiere in territori tradizionalmente periferici.

C’è chi si entusiasma per l’idea che Microsoft Fairwater Wisconsin diventi dieci volte più potente del supercomputer più veloce oggi in funzione. Un’affermazione che, come spesso accade, nasconde più marketing che scienza. Perché dipende tutto da quale benchmark si utilizza. Su carichi AI specifici, l’affermazione può essere vera. Su compiti scientifici o HPC tradizionali, forse no. Ma la precisione qui non interessa: l’importante è consolidare la percezione che Redmond stia costruendo l’arma definitiva per l’era dell’intelligenza artificiale.

In prospettiva geopolitica, è interessante osservare come questi data center non siano più infrastrutture neutre, ma veri e propri asset strategici. La capacità di addestrare modelli AI non è solo un tema di business ma di sicurezza nazionale. Chi controlla la potenza di calcolo controlla l’evoluzione dell’intelligenza artificiale, con implicazioni sulla difesa, sulla finanza e persino sulla politica internazionale. Non stupisce che il governo degli Stati Uniti guardi con favore a queste installazioni nel cuore del Midwest, lontano da coste vulnerabili e vicine a reti di trasporto e distribuzione energetica affidabili.

Tutto questo porta a una riflessione inevitabile: stiamo costruendo cattedrali nel deserto digitale. Strutture mastodontiche che condensano la nostra ambizione di dominare l’AI, ma che al tempo stesso rischiano di diventare monumenti all’eccesso di potenza. Perché se la storia ci insegna qualcosa, è che ogni volta che una tecnologia viene spinta oltre i limiti fisici, la curva dell’efficienza si spezza e nasce la necessità di nuovi paradigmi. Forse tra dieci anni guarderemo a Microsoft Fairwater Wisconsin come oggi guardiamo ai mainframe IBM degli anni sessanta: mostri sacri, indispensabili allora, obsoleti domani.

Nel frattempo, però, la mossa è chiara. Microsoft vuole assicurarsi il monopolio di fatto sull’infrastruttura di calcolo AI, trasformando il Wisconsin in un hub globale. Non importa se per la popolazione locale significherà vedere la campagna trasformata in una distesa di acciaio e turbine solari, l’obiettivo è garantire che quando nasceranno i prossimi modelli generativi, nasceranno lì. E in un mondo in cui i dati valgono più dell’oro, l’indirizzo postale del data center diventa più strategico di una sede diplomatica.