Un Jack Russell come il nostro Sole non si ferma mai. È un concentrato di energia che ignora la fisica newtoniana e sembra governato da una logica propria, un’oscillazione caotica di pura intenzione. Perché parlo di un cane iperattivocome Sole quando dovrei parlare di Physical AI? Perché nessuna batteria al litio, nessun pannello solare, nessuna turbina eolica riesce a replicare quella combinazione di istinto, apprendimento e reazione istantanea che un semplice mammifero di pochi chili manifesta in modo naturale. È la metafora perfetta per capire quanto sia riduttivo parlare di energia solo in termini di watt e joule, quando il vero tema è la trasformazione intelligente dell’energia in azione. Physical AI, oggi, non è altro che il tentativo imperfetto di creare macchine che si comportino più come un Jack Russell e meno come un’automobile ben programmata.

Si fa presto a dire intelligenza artificiale fisica, ma la realtà è che molti la confondono con un ammasso di sensori e attuatori. Le auto a guida autonoma? Belle, ma nella maggior parte dei casi sono un gigantesco esperimento di controllo a loop chiuso che imita la fisica con modelli matematici, senza un briciolo di creatività. Lo ammettono anche i migliori ingegneri: se il sistema è ben descritto dalla scienza tradizionale, non serve alcun AI. L’autopilota di un aereo non è intelligenza, è solo fisica applicata. Dove la fisica è nota, l’intelligenza diventa superflua. Eppure, quando la complessità aumenta, quando i dati esplodono e il caos prende il posto della linearità, ecco che serve un salto. Il cane, insegue la pallina senza calcolare equazioni differenziali; il robot, invece, ha bisogno di un’intera infrastruttura di sensori, modelli predittivi e algoritmi di machine learning per fare lo stesso gesto in modo “accettabile”.
Physical AI nasce proprio qui, in questo spazio dove il caos è più potente delle equazioni. Due le grandi famiglie: l’AI statistica e quella generativa. La prima è il cuore delle macchine che imparano dai dati fisici generati da sensori, motori e attuatori, quella che chiamiamo cyber-physical systems. Automobili, treni, centrali elettriche, ospedali, agricoltura robotizzata. Ogni nodo di questa rete è un mix di hardware adattabile e analisi predittiva, con l’obiettivo di ridurre sprechi, migliorare l’efficienza e individuare anomalie prima che esplodano in disastri costosi. È l’AI che aumenta la produttività, non che crea vera intelligenza. L’altra, quella generativa, è un gioco diverso: qui la macchina non si limita a osservare, ma immagina. Nei flussi di progettazione ingegneristica, un modello generativo può suggerire nuove configurazioni strutturali, simulare comportamenti non ancora documentati, persino reinterpretare vecchi problemi classici con prospettive fresche. È come se quel Jack Russell, dopo mille inseguimenti, iniziasse a prevedere la traiettoria della pallina prima ancora che venga lanciata.
Interessante, vero? Ma qui arriva la provocazione. Tutti parlano di generative AI come se fosse la panacea, ma la verità è che spesso è solo un trucco di marketing. Prendiamo l’esempio del Tacoma Narrows Bridge, il famoso crollo da manuale di ingegneria: nessuna chat con GPT avrebbe previsto quel disastro meglio di un ingegnere che conosceva a memoria le risonanze strutturali. Le fondamenta fisiche non si possono aggirare con un prompt intelligente. Lo stesso vale per la robotica energetica: puoi far scrivere a un algoritmo generativo mille varianti di un braccio robotico, ma se ignori le leggi della termodinamica o il comportamento del materiale, stai solo giocando con dei pixel.
E qui il Jack Russell torna come protagonista involontario. Un cane non “calcola” il consumo energetico ottimale, ma il suo corpo lo fa automaticamente, grazie a milioni di anni di evoluzione. La robotica energetica, invece, deve imparare da zero a ottimizzare l’uso dell’energia, spesso con metodi brutali: migliaia di simulazioni, milioni di righe di dati, training costosi. Physical AI, quando funziona, è l’arte di insegnare alle macchine a essere meno stupide, a ridurre la necessità di prove inutili e a imitare la logica adattiva di un organismo vivente. È per questo che alcuni ricercatori parlano di Broad AI, quando integrano non solo i dati dei sensori, ma anche l’ambiente, il contesto, la storia. Come un cane che non si limita a inseguire la pallina, ma sceglie se valga la pena farlo a seconda del terreno, dell’ora e forse persino del suo umore.
Una domanda scomoda, che quasi nessuno pone, è se questa corsa alla Physical AI serva davvero. L’obiettivo dichiarato è sempre il solito: autonomia, efficienza, manutenzione predittiva. Ma siamo sicuri che questa autonomia abbia senso in tutti i contesti? Un’auto che si guida da sola non è un cane libero, è un criceto in gabbia che gira in tondo seguendo regole rigide. La vera autonomia richiederebbe qualcosa che oggi spaventa gli ingegneri: la capacità di sbagliare per imparare, di prendere decisioni controintuitive, di ignorare la “fisica nota” quando l’esperienza suggerisce un comportamento diverso. In altre parole, una forma di intelligenza fisica che non esiste ancora.
La sfida più interessante nei prossimi anni non sarà aumentare i sensori o costruire modelli più grandi, ma ridurre la distanza tra l’intelligenza istintiva biologica e quella sintetica. Physical AI deve diventare meno ossessionata dai dati e più ispirata dai sistemi naturali. Sì, anche da un cane che salta troppo in alto per le sue gambe e atterra male, ma ci riprova comunque con una microvariazione nel movimento. Quel tipo di apprendimento è ancora fuori portata per qualsiasi algoritmo. Finché la robotica energetica continuerà a pensare solo in termini di watt risparmiati o traiettorie ottimizzate, rimarrà un’imitazione scadente della vita. Ma quando, un giorno, un robot vedrà una pallina e deciderà di inseguirla non perché programmato, ma perché lo vuole, allora forse parleremo davvero di Physical AI.
