Nel 2025 i produttori di semiconduttori hanno incassato oltre 400 miliardi di dollari. Non una categoria di nicchia, non un ciclo favorevole, ma il miglior anno di sempre per i chip. E il bello, o il preoccupante a seconda dei punti di vista, è che il 2026 promette di fare ancora meglio. L’AI non sta solo crescendo, sta divorando potenza di calcolo, e i data center sono diventati il suo apparato digerente.

Se sembra una corsa all’oro, è perché lo è. Con una differenza: al posto dei setacci ci sono GPU, al posto delle miniere enormi edifici pieni di server e al posto dei cercatori solitari una manciata di colossi tecnologici con bilanci più grandi di molti Stati. Nvidia è il nome che domina la scena, avendo più che raddoppiato i ricavi in un solo anno, ma non è più l’unica pala nel negozio di ferramenta. Google, Amazon, Microsoft e persino i grandi clienti stanno iniziando a costruire i propri attrezzi.

La vera svolta, però, non è solo quantitativa. È qualitativa. La prima fase della corsa all’AI era tutta concentrata sull’addestramento dei modelli, un esercizio muscolare che premiava chi aveva i chip più potenti. Ora il campo di battaglia si sta spostando sull’inferenza, cioè sulla capacità di servire risposte in modo rapido, efficiente e sostenibile. Ed è qui che le regole del gioco diventano più fluide. Nvidia lo sa bene, tanto da firmare un accordo da 20 miliardi di dollari con Groq, startup specializzata proprio nell’accelerare questa fase. Meno forza bruta, più intelligenza nell’uso delle risorse.

In questo nuovo scenario, la concorrenza si fa più affollata. I chip proprietari di Google, le TPU, e quelli di Amazon, Trainium e Inferentia, stanno trovando sempre più clienti. OpenAI collabora con designer come Broadcom per progettare soluzioni su misura. E AMD, veterana dell’industria, promette per il 2026 la sua prima vera sfida diretta alle GPU AI di Nvidia. Il risultato è un mercato più competitivo, ma anche più complesso, dove non basta vendere chip, bisogna venderli al giusto costo e nel giusto momento.

Il paradosso è che mentre i ricavi esplodono, le strozzature aumentano. Costruire data center oggi è un esercizio di pazienza industriale. Mancano trasformatori elettrici, turbine a gas, componenti essenziali per portare energia a cluster che consumano come città di medie dimensioni. E poi c’è la vera ossessione del momento: la memoria. I carichi di lavoro dell’inferenza sono affamati di accesso rapido ai dati, più ancora che di pura potenza di calcolo. Il risultato è una scarsità globale di chip di memoria ad alta larghezza di banda, quelli che permettono all’AI di pensare senza restare in attesa.

Produttori come Micron, Samsung e SK Hynix stanno beneficiando di questa situazione, aumentando prezzi e investimenti. Ma anche qui il tempo gioca contro. Espandere la capacità produttiva significa costruire fabbriche ultracomplesse che richiedono anni, non trimestri. Nel frattempo, i data center continuano a crescere e la domanda resta, per usare le parole dei Ceo, insaziabile.

Eppure, sotto la superficie scintillante dei numeri record, iniziano a emergere domande meno comode. Chi finanzia tutto questo? Una parte significativa del boom dei data center è alimentata da accordi miliardari con aziende come OpenAI, che acquistano capacità di calcolo da Microsoft, Amazon, Oracle e altri hyperscaler. Funziona, finché il flusso di capitali regge. Ma i mercati hanno una memoria breve e una soglia di tolleranza ancora più corta. Basta un dubbio sulla solidità dei finanziamenti e l’entusiasmo si raffredda, come si è visto nell’ultima ondata di vendite sui titoli AI.

Il 2026, quindi, si presenta come un anno a doppia faccia. Da un lato, gli analisti vedono ancora numeri impressionanti. Goldman Sachs stima che Nvidia da sola possa vendere hardware per 383 miliardi di dollari, mentre i principali produttori di chip potrebbero superare insieme i 538 miliardi. Dall’altro, c’è chi inizia a chiedersi se questo ritmo sia sostenibile oltre il breve periodo. Se i grandi clienti non riusciranno a raccogliere capitali sufficienti, o se l’offerta di chip dovesse superare la domanda, il mercato potrebbe rallentare più in fretta del previsto.

Il rischio non è tanto un crollo improvviso, quanto una normalizzazione dolorosa. Margini sotto pressione, aspettative ridimensionate, investitori meno indulgenti. Broadcom ha già assaggiato questa realtà, con il titolo in calo nonostante ricavi record, segno che il mercato guarda sempre più avanti e sempre meno allo specchietto retrovisore.

Eppure, per molti addetti ai lavori, parlare di fine corsa è prematuro. La spinta verso forme sempre più avanzate di intelligenza artificiale, fino all’agognata AGI, continua a richiedere una quantità di calcolo che oggi appare quasi senza limiti. I data center, in questo racconto, non sono una moda passeggera, ma la nuova infrastruttura di base dell’economia digitale.

Forse la verità sta nel mezzo, come spesso accade. Il 2026 potrebbe essere un anno di picco, o semplicemente un altro gradino in una salita più lunga e meno lineare di quanto i grafici suggeriscano. Di certo, finché l’AI continuerà a promettere di fare di più, più velocemente e per più persone, qualcuno dovrà costruire i luoghi dove tutto questo prende forma. E quei luoghi, rumorosi, assetati di energia e pieni di silicio, continueranno a chiamarsi data center. Anche quando l’euforia si sarà trasformata in routine.