Nel teatro sempre più teatrale dell’intelligenza artificiale globale, dove startup da qualche miliardo nascono più velocemente dei framework Python, la notizia della partnership tra Thinking Machines Lab e NVIDIA ha il sapore di una dichiarazione geopolitica più che di un semplice accordo industriale. La giovane società fondata da Mira Murati, ex volto tecnico di OpenAI, ha ottenuto qualcosa che nel mercato dell’AI vale più dell’oro, più del venture capital e, in molti casi, più degli algoritmi stessi. Energia computazionale.
Un gigawatt di sistemi Nvidia Vera Rubin architecture a partire dal 2027 non è un dettaglio tecnico; è una cifra che cambia la grammatica economica dell’intelligenza artificiale. Un gigawatt è il consumo di una piccola città industriale. È una quantità di elettricità che in passato alimentava acciaierie o linee ferroviarie. Oggi alimenterà modelli linguistici, agenti autonomi e sistemi cognitivi che, almeno nelle slide dei venture capitalist, dovrebbero riscrivere il lavoro umano.
La Silicon Valley ama parlare di modelli, dataset e architetture transformer. Tuttavia la verità meno romantica è che l’AI contemporanea è diventata un’industria pesante. Non metaforicamente. Letteralmente. Datacenter, linee elettriche, turbine e trasformatori. Il linguaggio della fisica ha sostituito quello del software.
Chi osserva la dinamica da una prospettiva strategica capisce subito la portata del gesto di Jensen Huang. Il CEO di NVIDIA non sta semplicemente fornendo hardware. Sta definendo chi potrà competere nella prossima fase della corsa all’intelligenza artificiale.
Nel mondo delle startup, l’accesso al calcolo è la nuova barriera all’ingresso. Dieci anni fa bastavano ingegneri brillanti e qualche milione di dollari. Oggi servono centrali elettriche.
La collaborazione con Andreessen Horowitz e con il venture arm di Advanced Micro Devices aggiunge un livello di ironia che non sfuggirà agli osservatori più smaliziati. AMD, storica rivale di Nvidia nel mercato dei semiconduttori, partecipa al finanziamento di una startup che svilupperà sistemi ottimizzati per hardware Nvidia. Silicon Valley nella sua forma più pura: competizione feroce sul mercato e collaborazione pragmatica quando il bottino è abbastanza grande.
La cifra dei 2 miliardi di dollari nel round di finanziamento appare quasi modesta se confrontata con il valore strategico del computing promesso. L’energia computazionale garantita dall’accordo potrebbe valere, nel ciclo di vita dei modelli sviluppati, decine di miliardi.
La ragione è semplice. L’intelligenza artificiale contemporanea è dominata da economie di scala brutali. Più GPU, più dati, più iterazioni. Chi possiede il calcolo domina il modello. Chi domina il modello domina il mercato.
Jensen Huang lo ha detto con una franchezza quasi disarmante durante una recente call con gli investitori. Nvidia non ha più bisogno di comprare quote nelle aziende di AI. Basta vendere loro il computing. I ricavi arriveranno comunque.
Dietro questa frase si nasconde una trasformazione industriale gigantesca. Nvidia sta diventando qualcosa di molto simile alla Standard Oil dell’intelligenza artificiale. Non controlla necessariamente le compagnie ferroviarie, ma possiede il carburante.
La decisione di non investire più direttamente in Anthropic o OpenAI è quindi meno sorprendente di quanto sembri. Se si controlla l’infrastruttura computazionale, la posizione di mercato diventa quasi monopolistica senza bisogno di capitale di rischio.
La storia economica offre un parallelo interessante. All’inizio del ventesimo secolo molti investitori cercavano di indovinare quale compagnia automobilistica avrebbe vinto. I più lucidi investirono nelle compagnie petrolifere.
Nel ventunesimo secolo il petrolio è diventato il calcolo.
La startup di Murati nasce in un contesto curioso. Dopo l’uscita turbolenta da OpenAI, la sua figura ha assunto un’aura quasi mitologica nel mondo tecnologico. Ex CTO della società che ha reso mainstream i modelli linguistici, Murati incarna perfettamente l’archetipo dell’ingegnere visionario trasformato in fondatore.
La Silicon Valley ama queste narrative. L’executive che lascia un gigante tecnologico per costruire la prossima rivoluzione. Funziona bene con i venture capitalist, funziona ancora meglio con i giornalisti.
Tuttavia la realtà operativa di una startup AI nel 2026 è molto meno romantica. La vera sfida non è inventare un nuovo algoritmo. La letteratura scientifica sui modelli generativi è ormai pubblica e condivisa. La sfida è pagare l’infrastruttura per addestrarli.
Per questo il gigawatt promesso da Nvidia assume un valore quasi esistenziale per Thinking Machines Lab.
Significa accesso garantito a capacità di training su scala planetaria. Significa poter costruire modelli con trilioni di parametri senza dover negoziare slot di GPU con hyperscaler nervosi. Significa poter competere con colossi come Google o Microsoft su un terreno che fino a pochi anni fa sembrava riservato ai giganti del cloud.
La parte più interessante dell’accordo riguarda la cosiddetta sinergia architettonica. Nvidia e Thinking Machines Lab svilupperanno sistemi di training e inferenza specificamente ottimizzati per l’hardware della casa di Santa Clara.
Chi ha seguito l’evoluzione dell’AI negli ultimi anni sa quanto questo dettaglio sia cruciale. L’ottimizzazione hardware software è diventata il vero campo di battaglia. Non basta avere GPU potenti; bisogna progettare interi stack software che sfruttino ogni ciclo di clock.
Il precedente più noto è quello di OpenAI con l’infrastruttura Azure di Microsoft. L’ottimizzazione congiunta ha permesso di ridurre drasticamente i costi di training e inferenza dei modelli GPT.
Murati sembra voler replicare lo stesso schema, ma con un vantaggio iniziale notevole. Un gigawatt di Vera Rubin.
Il nome stesso della nuova architettura Nvidia merita una parentesi. Vera Rubin fu l’astronoma che fornì le prove decisive dell’esistenza della materia oscura. Una scelta simbolica interessante. Anche l’intelligenza artificiale moderna si basa su qualcosa di invisibile ma determinante: il calcolo.
La quantità di energia necessaria per addestrare i modelli più avanzati continua a crescere in modo esponenziale. Alcuni analisti stimano che i modelli di prossima generazione potrebbero richiedere potenze di calcolo comparabili a quelle dei centri di ricerca nucleare degli anni Settanta.
Una prospettiva che rende improvvisamente molto meno ridicola la corsa globale ai datacenter.
Il contesto interno di Thinking Machines Lab aggiunge un elemento di dramma tipicamente siliconvalleyano. Tre cofondatori hanno recentemente lasciato l’azienda per tornare a OpenAI, una dinamica che ricorda più una saga familiare che una strategia industriale.
Il mercato del talento AI è diventato una forma di diplomazia tecnologica. Ricercatori che cambiano azienda con signing bonus da decine di milioni. Team che migrano collettivamente da una startup all’altra. Ecosistemi di ricerca che si muovono come sciami.
La Silicon Valley non lo dice apertamente, ma la guerra dell’intelligenza artificiale si combatte su tre fronti molto concreti. Chip. Energia. Talento.
L’accordo con Nvidia risolve il primo e il secondo problema per Murati. Il terzo resta aperto.
Un osservatore cinico potrebbe notare che la vera vittoria in questa storia non appartiene necessariamente alla startup. Appartiene a Nvidia.
Ogni nuova società che costruisce modelli su scala industriale diventa automaticamente un cliente da miliardi di dollari per l’azienda di Huang. Più startup AI nascono, più GPU vengono vendute.
Un modello di business quasi perfetto.
Qualcuno nella Silicon Valley scherza dicendo che Nvidia è diventata la tassa sull’intelligenza artificiale. Qualunque azienda voglia entrare nel settore deve pagare.
La partnership con Thinking Machines Lab rafforza ulteriormente questa posizione. Garantire un gigawatt di capacità computazionale significa assicurarsi anni di domanda futura per hardware di nuova generazione.
In altre parole Nvidia non sta solo vendendo GPU. Sta prenotando il futuro.
Guardando il quadro più ampio, l’accordo suggerisce qualcosa di ancora più interessante. La prossima fase dell’intelligenza artificiale potrebbe essere dominata non dalle aziende che costruiscono i modelli più intelligenti, ma da quelle che controllano le infrastrutture energetiche e computazionali.
Una prospettiva che sposta la competizione dal software alla geopolitica industriale.
Quando una startup riceve accesso garantito a un gigawatt di computing, la domanda non riguarda più soltanto cosa costruirà. Riguarda chi potrà permettersi di competere.
Nel frattempo la Silicon Valley continua a parlare di AGI come se fosse dietro l’angolo. La retorica è affascinante. Macchine che pensano. Sistemi che ragionano. Algoritmi che superano l’intelligenza umana.
La realtà quotidiana è più prosaica. Container pieni di GPU. Cavi di alimentazione spessi come braccia umane. Bollette elettriche da centinaia di milioni di dollari.
Il futuro dell’intelligenza artificiale potrebbe essere deciso non da un nuovo algoritmo rivoluzionario, ma dalla capacità di accendere abbastanza server nello stesso momento.
Una verità poco romantica, ma estremamente redditizia per chi vende l’hardware.
Murati, con il suo gigawatt promesso, ha appena comprato un biglietto in prima fila nella prossima fase della rivoluzione AI. Se la startup riuscirà davvero a trasformare quell’energia in modelli capaci di ridefinire il mercato resta una domanda aperta.
Nel frattempo Jensen Huang continua a fare quello che gli riesce meglio. Vendere pale durante la corsa all’oro.
Un mestiere che nella storia economica si è rivelato sorprendentemente profittevole.
Blog NVDIA:
https://blogs.nvidia.com/blog/nvidia-thinking-machines-lab/?utm_source=Generative_AI&utm_medium=Newsletter&utm_campaign=mira-murati-s-thinking-machines-inks-massive-nvidia-compute-deal&_bhlid=15d6f343f40cd3cb5afa9e7ad331ddf752ad7264