Quando il laboratorio di ricerca Nvidia aprì le sue porte a nuove sfide nel 2009, era ancora un microcosmo di appena una dozzina di ricercatori concentrati sul ray tracing, una tecnica di rendering sofisticata ma di nicchia. Allora Nvidia era percepita come una fabbrica di GPU per gamer esigenti, non certo come il motore di una rivoluzione tecnologica. Oggi, quello stesso laboratorio conta oltre 400 persone e ha contribuito a trasformare l’azienda in una potenza da 4 trilioni di dollari che guida la corsa globale all’intelligenza artificiale. La nuova ossessione è la physical AI, l’intelligenza artificiale che non vive soltanto nei data center, ma interagisce fisicamente con il mondo, comandando robot e macchine autonome.
La traiettoria che ha portato Nvidia fin qui è stata segnata dalla capacità di anticipare le tendenze tecnologiche. Già nel 2010, quando parlare di AI era per pochi iniziati, l’azienda iniziò a progettare GPU ottimizzate per il machine learning. Una scommessa che oggi appare ovvia, ma che all’epoca richiedeva una visione rara. Lo stesso principio guida ora l’avanzata verso la robotica intelligente: costruire oggi le fondamenta di ciò che domani sarà indispensabile.

Il cuore di questa nuova fase batte forte a Toronto, dove Sanja Fidler guida Omniverse, una piattaforma Nvidia nata non per intrattenere avatar digitali, ma per creare gemelli digitali ultra-realistici. Questi mondi sintetici servono ad addestrare robot in ambienti virtuali, permettendo di perfezionare il loro comportamento prima di immergerli nella realtà. Il primo ostacolo è stato la carenza di dati 3D di qualità, un problema affrontato con il differentiable rendering, tecnologia che consente di invertire il flusso classico del rendering, ricostruendo modelli tridimensionali accurati a partire da immagini o video.
Da questa base sono nati strumenti come GANverse3D e il motore di ricostruzione neurale Neuric, capaci di trasformare riprese di robot o veicoli autonomi in ambienti virtuali complessi. Queste tecnologie alimentano la famiglia di modelli Cosmos, pensata per accelerare l’addestramento dei robot fino a cento volte più velocemente del tempo reale. Un robot non è vincolato alla nostra percezione temporale: può elaborare, imparare e simulare esperienze in una frazione di secondo, arrivando a prevedere eventi e ottimizzare azioni prima che accadano.
Parallelamente, Nvidia sta sviluppando librerie e infrastrutture software dedicate alla robotica, con l’obiettivo di controllare non solo l’hardware e i modelli AI, ma anche il flusso di dati sintetici necessari per l’addestramento. È una strategia verticale che punta a costruire un ecosistema completo, dalla GPU al cervello artificiale, passando per i mondi digitali dove le macchine imparano a muoversi.
Il sogno dell’androide domestico è ancora lontano, ma la traiettoria è tracciata. L’industria si trova in quella fase di maturazione tecnologica che ricorda le auto autonome: dopo l’hype iniziale, il progresso è misurato in passi concreti, invisibili ai più ma cruciali per il salto successivo. La physical AI oggi è un laboratorio di possibilità, in cui i confini tra software, hardware e realtà fisica si dissolvono, lasciando spazio a un’intelligenza che non osserva soltanto il mondo, ma lo plasma attivamente. Chi controlla i modelli, la potenza di calcolo e le simulazioni iperrealistiche non sta semplicemente costruendo robot: sta scrivendo il manuale operativo della prossima rivoluzione industriale.