Non è più una demo da conferenza con badge scintillanti e cappuccino gratis. Gli AI agent sono usciti dal laboratorio, si sono tolti il camice bianco e ora si sporcano le mani. Lavorano, decidono, agiscono. E soprattutto: lo fanno da soli. Non chiedono permesso. Né scusa.
Nel lessico da marketing si chiamano “autonomous agents”. Ma in azienda, nel fango reale delle operation, sono diventati strumenti operativi. O forse, meglio, operatori. Hanno facoltà di scelta, decidono che tool usare, eseguono task complessi, e—follia delle follie—possono comunicare tra loro. Come una squadra di stagisti geniali ma socialmente disadattati: super veloci, brillanti, ma completamente imprevedibili.
Per qualcuno è l’inizio del paradiso. Per altri, il preludio dell’inferno. Diamo un’occhiata dentro la macchina, togliendo la patina glamour del marketing da conferenza AI. Il motore gira, ma vibra
Cosa succede davvero quando un agente AI prende il controllo operativo? In teoria, tutto funziona: riceve input, seleziona strumenti, esegue azioni, aggiorna stati, cicla fino al risultato desiderato. In pratica, però, il sistema è fragile. Vive su un equilibrio precario fra logica e delirio. Come un middle manager iper-performante sotto effetto di Red Bull e prompt sbagliati.
Capita spesso che si incastri in loop ossessivi: continua a chiamare API inutili, ripete task già risolti, prova a inviare email a se stesso, dimentica lo scopo originale. E poi c’è il fenomeno del “function call hallucination”, che suona poetico ma significa: “ho inventato un comando che non esiste”. Geniale, se non fosse un disastro.
E il bello? Può farlo senza controllo umano.
La responsabilità evaporata
Ora, entriamo nel cuore radioattivo della faccenda: la responsabilità. Se un agente HR risolve il 94% dei ticket, nessuno si fa domande. Ma quando quel 6% diventa licenziamento errato, leak di dati, o ticket chiuso con insulti generati da un LLM mal promptato… chi risponde? Il DevOps? L’azienda? Il vendor della AI? O l’agente stesso, che però non ha codice fiscale?
È il dilemma dell’autonomia algoritmica. L’agente agisce come un dipendente, ma non è assunto. Ha potere esecutivo, ma non ha etica. E quando sbaglia, non c’è una firma. È l’equivalente digitale del colpevole che scappa senza volto.
Nel frattempo, i legal team sono nel panico. I contratti non prevedono “azioni autonome da parte di sistemi generativi composti e collaborativi”. Le assicurazioni si stanno attrezzando, ma ancora con modelli pensati per bug software, non per decisioni “intenzionali” prese da entità digitali.
“Ma abbiamo il logging!” gridano i soliti. Sì, peccato che spesso siano log generati da altri agenti. Un circolo vizioso dove ogni log è un’interpretazione sintetica di un’azione ambigua. Kafka con API.
Governance o caos elegante?
Il punto è questo: se non costruisci una governance strutturata, gli agenti non sono alleati. Sono mine vaganti con accesso root.
Governance non significa solo policy. Significa orchestrazione tra intenti umani e autonomia artificiale. Significa limiti espliciti, tracciabilità non solo ex post, ma in tempo reale. E soprattutto, significa accountability contrattualizzata. Non basta un disclaimer legale. Serve un sistema di controllo in cui l’agente, per quanto autonomo, non sia irresponsabile.
Ma attenzione: la governance mal fatta è peggio del caos. È un freno a mano digitale che blocca l’innovazione. O peggio: un placebo che illude i C-level di avere il controllo. E invece gli agenti parlano tra loro, decidono cose, aggiornano record CRM e tu, CEO, lo scopri dal report settimanale che non hai autorizzato.
La verità è che siamo in piena era operativa degli AI agent. Non sono un’ipotesi. Sono qui, sotto la superficie dei workflow. Ottimizzano build, risolvono bug in produzione, rispondono ai clienti, generano documentazione e discutono tra loro strategie di A/B testing.
Nel mentre, i manager si illudono che siano tool, e non attori del processo.
La domanda non è più “se” li userai. Ma “quando ti esploderanno in mano”.
E allora torniamo all’interrogativo iniziale: chi è il responsabile?
La risposta più onesta è che nessuno vuole esserlo. E finché non lo sarà qualcuno, gli agenti continueranno a operare in quella zona grigia fra brillantezza automatica e stupidità pericolosa.
Nel bar della mia giovinezza c’era un tizio che diceva sempre: “la tecnologia fa miracoli, finché non decide di farti santo a forza”. Ora quel tizio lavora in compliance. Non dorme da mesi.
Pronti a dare le chiavi del business a un’entità che non sa cos’è il GDPR ma ha accesso a tutti i database? Bentornati nel presente.