La narrazione dominante sull’intelligenza artificiale continua a oscillare tra due estremi infantili, da un lato la fascinazione quasi mistica per modelli sempre più potenti, dall’altro il timore altrettanto ingenuo di una sostituzione lineare del lavoro umano; nel frattempo, nei laboratori di ricerca più seri, il problema si è già spostato altrove, in una zona molto meno glamour e decisamente più pericolosa, quella della delega. Non più “cosa può fare l’AI”, ma “a chi lo fa fare”. Il recente lavoro pubblicato da Google DeepMind sull’Intelligent AI Delegation segna esattamente questo passaggio, quasi silenzioso ma strategicamente devastante: l’intelligenza non è più solo esecuzione, è governance.

La questione è meno teorica di quanto sembri. Chiunque abbia costruito sistemi complessi, dai cluster distribuiti agli ecosistemi di microservizi, sa che il vero problema non è la singola funzione ma il coordinamento tra entità autonome; la differenza, oggi, è che quelle entità iniziano a prendere decisioni. Non eseguono semplicemente, scelgono. E scegliere implica responsabilità, o almeno l’illusione di averne una. L’AI agentica, quella che Silicon Valley vende con entusiasmo quasi messianico, non è altro che un tentativo di simulare organizzazioni umane senza le loro inefficienze; peccato che spesso stia importando anche i loro difetti peggiori, solo più velocemente.

Il paper di DeepMind individua un punto critico che molti CTO fingono di non vedere per non rallentare roadmap già finanziate: i sistemi attuali di delega sono fragili. Fragili nel senso più industriale del termine, cioè incapaci di gestire deviazioni dalla norma. Funzionano bene finché il mondo resta prevedibile, crollano non appena emerge l’imprevisto. Non è un bug, è una conseguenza diretta dell’approccio euristico che domina oggi la progettazione degli agenti. In pratica, abbiamo costruito manager digitali che sanno assegnare compiti ma non sanno reagire quando il collaboratore fallisce.

Il primo pilastro proposto, la valutazione dinamica, introduce un elemento che fino a ieri apparteneva solo alla psicologia organizzativa: la capacità di inferire competenza e intenzione in tempo reale. Non è un dettaglio tecnico, è una rivoluzione culturale. Significa che un agente non deve solo sapere cosa fare, ma anche giudicare chi è più adatto a farlo in quel momento specifico. Tradotto in termini economici, è la nascita di mercati del lavoro interamente sintetici, dove le performance vengono valutate in millisecondi e le reputazioni si costruiscono e si distruggono alla velocità del calcolo.

L’esecuzione adattiva, secondo pilastro, è ancora più destabilizzante. L’idea che un sistema possa cambiare delegato a metà di un task sembra banale, ma introduce una complessità esponenziale. Ogni switch è un punto di rischio, ogni passaggio di consegne è una potenziale perdita di contesto. Chi ha mai gestito un progetto enterprise sa che il costo nascosto non è nell’assegnazione iniziale, ma nei handover. Ora immaginiamo milioni di handover al secondo, orchestrati da agenti che apprendono in tempo reale. L’efficienza promessa è enorme, ma altrettanto lo è la superficie di errore.

La trasparenza strutturale, terzo pilastro, appare come il classico compromesso rassicurante che le grandi aziende inseriscono nei loro paper per tranquillizzare regolatori e investitori. Auditabilità, accountability, tracciabilità. Parole che suonano bene nei report ESG e nei documenti per Bruxelles. La realtà è più cinica: rendere completamente trasparente un sistema distribuito di agenti autonomi è un problema computazionale e politico. Ogni layer di spiegabilità riduce la velocità, ogni log aumenta il costo. La domanda implicita è brutale: quanto siamo disposti a pagare per capire cosa stanno facendo le macchine?

Il quarto pilastro, coordinamento scalabile di mercato, è probabilmente il più interessante e il più sottovalutato. Qui DeepMind non sta parlando solo di tecnologia, ma di economia. Gestire interazioni tra agenti su scala globale significa introdurre meccanismi simili a mercati finanziari, con dinamiche di domanda, offerta, pricing e arbitraggio. Non è difficile immaginare scenari in cui agenti competono per task, ottimizzano risorse e, inevitabilmente, cercano di sfruttare il sistema. Chi ha memoria della crisi del 2008 potrebbe trovare familiare questa architettura: complessità distribuita, incentivi locali, rischio sistemico globale.

Infine, la resilienza sistemica. Qui il paper tocca un nervo scoperto. In un mondo interconnesso di agenti, il fallimento non è mai isolato. Un errore locale può propagarsi, amplificarsi e trasformarsi in un collasso a cascata. Non è fantascienza, è ingegneria dei sistemi complessi. Già oggi vediamo esempi rudimentali in algoritmi di trading o sistemi di raccomandazione. Domani, con agenti autonomi che delegano ad altri agenti, il rischio cresce in modo non lineare. La resilienza non è più una feature, è una condizione di sopravvivenza.

La vera provocazione del lavoro di DeepMind, però, non è nei cinque pilastri, ma nella premessa implicita: stiamo costruendo strutture di potere algoritmico. Delegare significa trasferire autorità. Ogni volta che un sistema decide chi deve fare cosa, sta esercitando una forma di governance. Nel mondo umano, abbiamo impiegato secoli per sviluppare istituzioni, regole, contrappesi. Nel mondo delle macchine, stiamo accelerando questo processo con una leggerezza che rasenta l’incoscienza.

Un parallelismo storico può aiutare. Quando rivoluzione industriale ha trasformato la produzione, il problema principale non era la tecnologia in sé, ma la gestione del lavoro e del capitale. Oggi ci troviamo in una fase analoga, ma con un twist: il lavoro stesso diventa delegabile tra entità non umane. Il capitale, nel frattempo, osserva con entusiasmo, intravedendo margini di efficienza che farebbero impallidire qualsiasi CFO. Il rischio è che la governance resti indietro rispetto alla velocità dell’innovazione.

L’ironia, come spesso accade, è che mentre si discute pubblicamente di bias e allucinazioni dei modelli linguistici, nei laboratori si affrontano problemi molto più profondi. Non si tratta più di correggere una risposta sbagliata, ma di evitare che un sistema prenda una decisione sbagliata su chi deve prendere decisioni. È un livello meta che complica tutto. Un errore di delega non è facilmente osservabile, ma può avere conseguenze molto più gravi di una semplice imprecisione testuale.

Nel contesto aziendale, questo cambio di paradigma è destinato a ridefinire il ruolo stesso del management. Se gli agenti possono assegnare task, monitorare performance e ottimizzare processi, cosa resta ai manager umani? La risposta più onesta è: la responsabilità finale. Che, paradossalmente, è anche la parte meno automatizzabile. Il rischio è una nuova forma di deresponsabilizzazione, dove le decisioni vengono prese da sistemi opachi e gli esseri umani restano a gestire le conseguenze.

Una frase sintetica, degna di essere incisa su qualche slide di board meeting: “l’automazione scala, la responsabilità no”. Ed è esattamente qui che si gioca la partita. Le aziende che capiranno come integrare sistemi di delega intelligente mantenendo controllo e accountability avranno un vantaggio competitivo significativo. Le altre, probabilmente, scopriranno troppo tardi che l’efficienza senza governance è solo un modo elegante per accelerare il disastro.

Un’ultima osservazione, leggermente provocatoria. L’hype sull’AI agentica ricorda molto quello sul cloud nei primi anni 2010. Promesse di flessibilità infinita, riduzione dei costi, scalabilità senza limiti. Poi sono arrivati i bill inattesi, la complessità operativa e la dipendenza da pochi grandi provider. Con la delega intelligente, il rischio è simile ma amplificato. Non stiamo solo esternalizzando infrastruttura, stiamo esternalizzando decisioni.

Chi guida oggi organizzazioni tecnologiche dovrebbe iniziare a porsi domande scomode. Non su quale modello adottare, ma su quali decisioni è disposto a delegare e a quali condizioni. Perché nel momento in cui un sistema inizia a delegare a sua volta, la catena di controllo diventa opaca. E quando la catena si rompe, non c’è dashboard che tenga.

La traiettoria è chiara, anche se pochi hanno il coraggio di dirlo apertamente. L’intelligenza artificiale sta evolvendo da strumento a infrastruttura decisionale. La delega è il nuovo sistema operativo. E come ogni sistema operativo, determinerà cosa è possibile fare, cosa è permesso fare e, soprattutto, cosa accade quando qualcosa va storto.


paper di riferimento