Quello che molti non stanno dicendo o forse ignorano per scetticismo è che Gemini 3 Pro sembra essere stato addestrato senza usare una singola GPU NVIDIA. Secondo i post su Reddit (che bisogna sempre prendere con un pizzico di sale, ma che qui sono sorprendentemente coerenti) > “Hardware: Gemini 3 Pro was trained using Google’s Tensor Processing Units (TPUs).” Questo non è un dettaglio tecnico minore: è un manifesto architetturale.
Google, infatti, ha sviluppato la sua settima generazione di TPU, chiamata Ironwood. Secondo le specifiche ufficiali, Ironwood è disegnato per gestire carichi di “inference” — ma anche (e, secondo le voci, addestramento) su larga scala. Ogni chip ha 192 GB di HBM3e, larghezza di banda molto elevata, e può scalare in “pod” fino a 9.216 unità, generando fino a ~42,5 exaflops in FP8.
Google ha annunciato che Ironwood sta diventando generalmente disponibile su Google Cloud. È la prima volta che vediamo un’adozione su massa di TPU di così alto livello, non solo per inferenza ma anche (almeno stando ai rumor) per l’addestramento di modelli di frontiera.
Perché questa cosa è più di un semplice “fatto curioso”
Il dominio di NVIDIA messo in discussione
NVIDIA ha governato l’hardware AI per anni grazie alle sue GPU. Se Google riesce a sviluppare modelli all’avanguardia usando esclusivamente i suoi TPU, l’economia cambia radicalmente. Non c’è più “tassa NVIDIA”, non devi negoziare per ottenere GPU, non subisci i vincoli del mercato del merchant silicon.
Co-design verticale come superpotere
Google non sta semplicemente affittando computer da fornitori terzi: possiede il silicio (TPU), il cloud (Google Cloud) e il modello (Gemini). Questo modello integrato ricorda quello delle console di gioco: hardware e software co-progettati per spremere ogni bit di efficienza. È un vantaggio strategico gigantesco.
Efficienza ed economia
Le TPU di Google sono progettate per essere estremamente efficienti per carichi AI. Ironwood, per esempio, promette un’efficienza energetica molto elevata. In pratica, se riesci a gestire l’addestramento senza GPU “generiche” ma su silicio proprietario, riduci costi operativi, miglior controllo su scala, e potenzialmente aumenti il margine.
Un segnale di mercato
Alcune altre società stanno già migrando verso TPU: secondo alcuni rumor, Safe Superintelligence, Salesforce e Midjourney usano TPU. Anthropic, addirittura, avrebbe piani per fino a 1 milione di TPU e oltre 1 GW di potenza. Se tutto ciò è vero, Google non solo ha un vantaggio tecnologico, ma sta anche guidando un’onda infrastrutturale.
Un futuro ibrido
Va detto, però: Google non abbandona completamente le GPU NVIDIA. Continua a offrirle in cloud, soprattutto per casi in cui serve versatilità operazioni custom, kernel evoluti, workload misti. Quindi il futuro probabilmente non è “solo TPU”, ma una strategia ibrida, con Google che detiene la fetta più strategica.
Reddit non è una fonte ufficiale: il fatto che “si dice” che Gemini 3 Pro sia stato addestrato solo su TPU è suggestivo, ma non è una conferma da parte di Google. Non c’è (al momento pubblico) una documentazione tecnica ufficiale che dichiari apertamente “abbiamo usato solo Ironwood TPU per l’addestramento di Gemini 3”.
Anche se Ironwood è potente, l’addestramento di modelli di frontiera richiede più che raw flops: serve un ecosistema software robusto, tool di distribuzione, tolleranza ai guasti, rete inter-chip, gestione della memoria. Google ha fatto molti progressi in questi ambiti (vedi il suo inter-chip interconnect ad alta velocità).
Il rischio è anche finanziario: progettare, produrre e mantenere un’infrastruttura TPU su scala massiva è costoso. Se il modello Gemini o gli altri modelli di punta non portano un ritorno sufficiente, il pay-off dell’investimento custom silicon diventa più rischioso rispetto a un uso di GPU esistenti.
Altri competitor potrebbero reagire: se Google dimostra che i TPU proprietari sono una mossa vincente, altri hyperscaler o laboratori AI potrebbero accelerare lo sviluppo di silicio proprietario o cercare modelli alternativi (ASIC, altre architetture di acceleratori).
Se davvero Gemini 3 è stato addestrato interamente su TPU Ironwood, è una dichiarazione d’intenti di Google: “non abbiamo bisogno di NVIDIA”. È una mossa che può cambiare le regole del gioco infrastrutturale dell’AI.
Non è solo una questione di prestazioni, ma di strategia a lungo termine. Google sta giocando su un terreno diverso: non solo modelli, ma stack completo, dal silicio al cloud al modello. Se questo diventa il nuovo standard, il baricentro del potere nell’industria AI potrebbe spostarsi.
Per gli investitori, per i competitor e per le startup AI, questa è un chiamata d’attenzione: l’era della dipendenza esclusiva dalle GPU “generiche” potrebbe rallentare. Google ha forse trovato un suo “moat” davvero significativo nell’hardware — ed è una di quelle giocate che può pagare in modo sproporzionato se eseguita con scalabilità.