Quando si parla di intelligenza artificiale, la maggior parte delle persone immagina una macchina che riceve input, calcola con un grande modello e produce un output. Una pipeline industriale che ricorda più un ufficio postale digitale che un cervello. Eppure, se questa fosse tutta la storia, non saremmo qui a discutere di come un nuovo paradigma possa spingere i robot e le macchine oltre la logica dei token predetti uno dopo l’altro. La verità è che l’agente di nuova generazione non è più un piccolo dittatore centrale che governa il mondo attraverso comandi e controlli, ma un’unità di complessità delimitata. Bounded autonomy agent, come lo chiamano i ricercatori. Non è un concetto poetico, ma una vera architettura del futuro.

Dentro ogni unità di complessità non troviamo un cervello unico, bensì una dinamica interna di forze contrastanti. Forze che spingono in direzioni opposte, vincolate da priors, ovvero pregiudizi incorporati sul funzionamento del mondo. Sono questi pregiudizi a dare consistenza all’azione. Se la visione parte dal presupposto che un oggetto mantiene la sua dimensione a meno che la distanza cambi, è grazie a un bias che guida l’interpretazione. Se l’equilibrio parte dalla convinzione che i movimenti seguano archi a meno di interferenze, anche questa è una credenza utile. Se la presa si basa sulla fede che la frizione regga fino al superamento di un limite, è ancora una volta un prior che modella l’azione. L’agente, quindi, non comanda: negozia e ciò che chiamiamo comportamento emerge come il risultato di questa negoziazione continua.

Un sistema costruito in questo modo non funziona come la vecchia scuola di AI basata su comandi. Funziona più come un’orchestra senza direttore. Ogni strumento ha la sua partitura interna, ma l’armonia non arriva da un maestro centrale che batte il tempo: nasce dall’ascolto reciproco, dalla tensione tra strumenti che si compensano e si aggiustano in tempo reale. Non è un if-then-else a risolvere conflitti, ma una propagazione di credenze. È una coerenza che scaturisce dal basso, non dall’alto.

Il passo successivo è evidente. Finché i sottosistemi rimangono separati, non sono altro che moduli scollegati che comunicano a forza tramite code di messaggi e scheduling. È il robot patchwork che conosciamo: ogni pezzo fa il suo compito, ma l’insieme è fragile. Quando invece li colleghi in una rete di active inference distribuita, succede qualcosa di radicalmente diverso. La visione non è più sola, informa l’equilibrio. La presa non è isolata, condiziona la locomozione. L’equilibrio non è compartimento stagno, diventa vincolo per il braccio robotico. Il risultato è che l’intero robot si comporta come un organismo vivo e non come un collage di riflessi.

E qui scatta la provocazione. Questo modo di pensare non si ferma alla robotica. Qualsiasi sistema in cui esistono forze contrastanti può essere ridisegnato come una rete di agenti a complessità delimitata. In una fabbrica, la stabilità del pavimento, le vibrazioni delle macchine, la produttività e l’usura non sono variabili indipendenti, ma spinte che si equilibrano continuamente fino a trovare una traiettoria sostenibile. In finanza, il capitale e il rendimento non sono due indicatori separati, ma due forze che si fronteggiano e si assestano per produrre stabilità nel tempo. In logistica, la rapidità di consegna, i costi di trasporto e l’impatto ambientale sono forze che non si sommano: si negoziano. Active inference diventa così una cornice generale, non un giocattolo per robotici.

Non a caso, diversi studi hanno già mostrato come l’inferenza attiva sia un framework matematico che unifica percezione, controllo e apprendimento, minimizzando la cosiddetta free energy, ovvero la misura di quanto un modello è distante dalla realtà osservata (Friston, 2019, The free-energy principle). È lo stesso principio che consente a sistemi complessi di restare in equilibrio anche sotto incertezza, trasformando l’ambiguità da minaccia a carburante informativo.

Un esempio pratico e già citato in letteratura è quello della visione 3D condivisa attraverso il Variational Bayes Gaussian Splatting (VBGS). Con questo approccio, ogni punto nello spazio non è più un pixel morto, ma una Gaussiana probabilistica che porta con sé colore, opacità, posizione e soprattutto incertezza. È un modo nuovo di costruire mappe tridimensionali che restano vive, continuamente aggiornate senza bisogno di replay o reset. Ogni nuova osservazione è un aggiornamento di credenza. E quando più robot o droni condividono lo stesso substrato, nasce una visione collettiva che funziona come un cervello distribuito (arXiv:2410.03592, Verses AI Blog).

Se oggi parliamo tanto di AI generativa che produce immagini o testi, domani parleremo di AI percettiva distribuita che genera coerenza. Una coscienza visiva collettiva che guiderà flotte di droni, robot urbani, auto autonome. Non sarà più il robot singolo a dover capire tutto, ma la rete a generare una credenza dinamica del mondo condivisa da tutti. Non sorveglianza, non controllo, ma coerenza a scala urbana. Una città non più fatta di silos – semafori da una parte, droni dall’altra, telecamere isolate – ma di un cervello probabilistico vivente che integra ogni osservazione in un’unica sinfonia adattiva.

Questo è il salto di qualità. Perché non si tratta di aggiungere più potenza di calcolo o GPU più grandi. Non si tratta nemmeno di “allenare” meglio. Si tratta di cambiare cornice. L’agente di inferenza attiva non è un controllore o un programma. È un’unità di complessità che puoi usare come mattone per stratificare i tuoi problemi. Costruendo gerarchie di agenti, ottieni sistemi che non crollano al primo soffio di ambiguità, ma che riescono a restare coerenti anche sotto incertezza moderata o severa. È la differenza tra l’ennesima demo AI che fallisce nel 95% dei casi aziendali e un sistema che agisce nel mondo reale con resilienza.

Il paragone più pungente è con i modelli di deep learning di ultima generazione, come DreamerV3, che pur con le loro promesse titaniche tendono a collassare senza enormi risorse hardware e dataset sterminati. Con agenti di inferenza attiva, invece, ottieni prestazioni comparabili o superiori su hardware commodity, senza bisogno di GPU cluster e senza dipendere dal “karaoke stocastico dei token” che tanto entusiasma le demo su Twitter, salvo poi fallire in produzione (arXiv:2112.01871).

Ecco quindi la vera novità: l’intelligenza artificiale distribuita non è più un sogno. È un cambio di prospettiva che nasce dalla robotica, ma si estende a ogni settore dove ci sono tensioni da risolvere. Gli agenti a complessità delimitata non sono gadget accademici, ma il mattone fondamentale per costruire sistemi complessi, resilienti e soprattutto capaci di negoziare coerenza piuttosto che imporla. Una rivoluzione silenziosa, ma inesorabile, che trasforma l’AI da burattinaio a organismo, da somma di regole a equilibrio dinamico. E chi non la capisce rimarrà con in mano l’ennesimo modello costoso e fragile, buono solo per un’altra demo spettacolare e un altro fallimento in azienda.


“active inference”, “bounded autonomy agents”, “intelligenza artificiale distribuita”.