Nvidia Vera Rubin non è un chip. È una dichiarazione di potere. Jensen Huang sale sul palco del CES di Las Vegas come un amministratore delegato che non deve più convincere nessuno, ma solo ricordare al mercato chi comanda davvero l’infrastruttura cognitiva del pianeta. Quando dice che la nuova generazione di chip è in piena produzione e promette cinque volte la capacità di calcolo per applicazioni di intelligenza artificiale, non sta facendo marketing. Sta tracciando una linea. Da una parte chi costruisce i modelli. Dall’altra chi decide quanto velocemente il mondo può pensare.

Il punto interessante non è il numero cinque, che fa sempre effetto sui titoli e sugli analisti in cerca di adrenalina. Il punto è il contesto. Nvidia non parla più solo a sviluppatori e data scientist. Parla ai governi, alle Big Tech clienti e concorrenti, ai regolatori che cercano di inseguire un’industria che corre a una velocità strutturalmente incompatibile con qualsiasi processo normativo. Vera Rubin arriva in un momento in cui l’intelligenza artificiale non è più una promessa ma una dipendenza sistemica, e chi controlla i chip controlla la latenza del futuro.

La piattaforma Vera Rubin è un oggetto concettualmente e fisicamente ingombrante. Sei chip Nvidia distinti che lavorano come un organismo unico, con server di punta che integrano 72 GPU e 36 nuove CPU progettate in casa. Huang le mostra come si mostrano le centrali elettriche o i porti strategici, non come gadget. La vera rivelazione arriva quando parla dei pod, cluster con oltre mille chip Rubin collegati tra loro, progettati per migliorare di dieci volte l’efficienza nella generazione dei token, l’unità fondamentale dell’intelligenza artificiale moderna. Chi controlla i token controlla il ritmo delle risposte, la fluidità delle conversazioni, l’illusione dell’intelligenza.

Qui Nvidia gioca la sua partita più sofisticata. Non solo più potenza, ma più efficienza cognitiva. Meno energia sprecata per ogni parola generata, meno latenza nelle risposte, più naturalezza apparente. È l’ottimizzazione industriale dell’empatia artificiale. E come spesso accade, il salto prestazionale non arriva solo dall’hardware ma da una scelta strategica che fa discutere. Per ottenere questi risultati, Rubin utilizza un formato di dati proprietario che Nvidia spera venga adottato dall’intero settore. Traduzione per chi legge tra le righe. Innovazione oggi, lock in domani.

Huang lo dice con una naturalezza quasi disarmante. Solo 1,6 volte il numero di transistor, ma un balzo gigantesco nelle prestazioni. È la dimostrazione che la guerra dei chip non si combatte più solo a colpi di miniaturizzazione, ma di architettura, di software, di integrazione verticale. Nvidia non vende silicio. Vende un ecosistema chiuso che promette efficienza, scalabilità e una cosa ancora più preziosa, la prevedibilità. In un mondo dominato da modelli probabilistici, la prevedibilità è diventata la vera valuta forte.

Il contesto competitivo rende il quadro ancora più interessante. Nvidia domina ancora l’addestramento dei modelli, ma la vera battaglia si sta spostando sull’inferenza, ovvero la distribuzione dei risultati a centinaia di milioni di utenti. Qui entrano in gioco AMD, Google e gli stessi clienti di Nvidia, che costruiscono chip proprietari per ridurre dipendenze e costi. Huang lo sa benissimo, e infatti gran parte del keynote è dedicata a dimostrare quanto Rubin sia ottimizzato proprio per servire chatbot, assistenti e applicazioni AI su larga scala.

In questo scenario si inserisce la context memory storage, una nuova tecnologia di archiviazione pensata per migliorare le risposte a conversazioni lunghe e complesse. Non è un dettaglio tecnico. È un’ammissione implicita che il problema dell’AI oggi non è solo cosa risponde, ma quanto bene ricorda. La memoria contestuale diventa un elemento competitivo, quasi psicologico. Chatbot più rapidi, più coerenti, più convincenti. Non necessariamente più intelligenti, ma più credibili. Nvidia non costruisce coscienze artificiali. Costruisce la loro messa in scena.

La stessa logica vale per la nuova generazione di switch di rete con co packaged optics, tecnologia cruciale per collegare migliaia di macchine come se fossero un unico cervello distribuito. Qui la competizione è aperta e feroce, con Broadcom e Cisco che difendono territori storici. Nvidia entra come ha sempre fatto, integrando hardware, software e visione sistemica. Non vuole essere solo un fornitore di chip. Vuole essere l’architetto dell’intero data center cognitivo.

Non sorprende che tra i primi clienti annunciati ci sia CoreWeave, e che Nvidia si aspetti l’adozione da parte di Microsoft, Amazon, Oracle e Alphabet. Non è solo una lista di nomi. È la mappa del potere computazionale globale. Ogni nuova generazione di chip Nvidia ridisegna le relazioni di forza tra chi costruisce modelli, chi li distribuisce e chi li monetizza. Il paradosso è che Nvidia cresce anche quando i suoi clienti diventano potenziali rivali.

La parte forse più sottovalutata del keynote riguarda il software per la guida autonoma. Huang parla di sistemi in grado di prendere decisioni e lasciare una traccia documentale per gli ingegneri. Non è solo un tema di sicurezza. È governance algoritmica. La possibilità di ricostruire perché un sistema ha scelto una traiettoria invece di un’altra è ciò che separa un giocattolo costoso da un prodotto industriale regolamentabile. Il software Alpamayo, annunciato in precedenza e ora pronto a una diffusione più ampia, va in questa direzione.

La scelta di open source non solo i modelli ma anche i dati di addestramento è una mossa che merita attenzione. Huang parla di fiducia, ma il messaggio è più complesso. Nvidia vuole posizionarsi come attore responsabile, trasparente, quasi etico, in un settore sempre più sotto osservazione politica. Aprire i dati significa anche definire uno standard, orientare l’ecosistema, rafforzare la propria centralità. L’open source, quando arriva da una posizione dominante, è raramente un atto di altruismo.

Sul fronte strategico, l’acquisizione di talenti e tecnologia dalla startup Groq aggiunge un ulteriore livello di complessità. Tra questi, figure chiave che avevano contribuito alla progettazione dei chip AI di Google. Il messaggio qui è doppio. Da un lato Nvidia rafforza le proprie competenze. Dall’altro manda un segnale ai clienti che stanno cercando di emanciparsi. Il talento segue il capitale, e il capitale oggi è ancora saldamente nelle mani di Nvidia.

Il tema geopolitico emerge quando si parla della Cina. I chip H200, predecessori di Blackwell, sono ancora molto richiesti sul mercato cinese, nonostante le restrizioni. Huang lo conferma senza troppi giri di parole, mentre la CFO Colette Kress spiega che le licenze sono in attesa di approvazione. Qui la tecnologia incontra la politica nel modo più brutale. Chip che diventano strumenti di diplomazia coercitiva, catene di fornitura trasformate in leve di pressione strategica.

In questo quadro, Vera Rubin non è solo un prodotto che arriverà più avanti nell’anno. È un segnale. Nvidia sta dicendo al mondo che l’era dell’AI come sperimentazione è finita. Inizia l’era dell’AI come infrastruttura critica, dove le scelte architetturali di un singolo attore possono influenzare l’economia digitale globale. Cinque volte più potenza non servono solo a generare più token. Servono a consolidare una posizione che assomiglia sempre meno a quella di un fornitore e sempre più a quella di un monopolista illuminato, convinto di sapere cosa è meglio per tutti.

La vera domanda non è se Vera Rubin manterrà le promesse prestazionali. La vera domanda è chi potrà permettersi di non adottarla, e a quale costo strategico. In un mondo dove l’intelligenza artificiale diventa il sistema operativo della società, decidere chi scrive il kernel non è mai una scelta neutrale. Nvidia lo sa. Jensen Huang lo sa. E il mercato, anche quando finge di indignarsi, continua a comprare.