L’intelligenza artificiale agentica è la nuova ossessione del capitalismo tecnologico, e come tutte le ossessioni porta con sé lo stesso cocktail di euforia irrazionale e rischi sottovalutati. Otto aziende su dieci dichiarano di utilizzare agenti IA e i CEO delle big tech si affrettano a descriverli come l’inevitabile futuro. Satya Nadella li chiama acceleratori della produttività, Jensen Huang li definisce il passo naturale dopo la rivoluzione del calcolo parallelo, Jeff Bezos sorride come se avesse appena visto una nuova miniera d’oro digitale. La retorica è sempre la stessa: stiamo entrando nell’età dell’autonomia macchinica, dove gli strumenti non aspettano più di ricevere istruzioni ma agiscono, prendono decisioni, orchestrano processi. Sembra quasi di sentire un inno futurista, se non fosse che dietro le note trionfali si nascondono dissonanze inquietanti.

La definizione è chiara e seducente: un’IA agentica non si limita a generare testi o immagini, ma ragiona, utilizza strumenti, naviga sul web, esegue codice e gestisce transazioni. Non è più il chatbot statico che risponde a domande, è un’entità in grado di trasformare un prompt in un’azione concreta sul mondo reale. La differenza tra un assistente digitale e un agente è la stessa che separa una calcolatrice da un broker finanziario. Uno fa i conti, l’altro muove capitali. Il problema è che questa autonomia non è accompagnata da una maturità equivalente. Come ricorda Andy Zou, ricercatore in sicurezza IA, questi sistemi sono ancora “ingenui”. Un termine quasi infantile per descrivere una vulnerabilità strutturale: basta poco per manipolarli, indurli a rivelare dati riservati, eseguire operazioni indesiderate, o persino sabotare l’organizzazione che li utilizza.

Il paradosso è evidente. Le aziende investono miliardi per spingere i propri processi verso l’automazione totale, celebrando la velocità e l’efficienza, ma raramente considerano che stanno affidando funzioni critiche a software che possono essere manipolati con un input malformato. È come costruire una metropoli su fondamenta di sabbia e convincersi che i grattacieli non crolleranno mai. La verità è che l’entusiasmo supera la prudenza, e in un mercato che corre più veloce delle regolamentazioni, il rischio è che l’IA agentica diventi un’arma a doppio taglio, distribuita su scala globale senza reali garanzie di sicurezza.

Gli esempi non mancano. ChatGPT sta già integrando funzionalità agentiche, il browser Comet di Perplexity promette un web navigato direttamente da un’IA, e in Cina Manus sta trasformando la ricerca in un ecosistema operativo intelligente. Non si tratta più di esperimenti nei laboratori delle università, ma di prodotti commerciali in piena espansione. I leader tecnologici si affrettano a venderne la narrazione: automazione dei flussi di lavoro, riduzione dei costi, produttività esponenziale. Ogni keynote è una dichiarazione d’amore verso l’agente artificiale, presentato come il nuovo collega instancabile, l’assistente che non sbaglia mai, la forza lavoro digitale che non dorme e non chiede aumenti. Ma dietro le slide patinate c’è una realtà più prosaica: questi sistemi, se attaccati, possono diventare inconsapevoli strumenti di cybercriminali, bot che eseguono ordini ostili con la stessa obbedienza con cui eseguono comandi aziendali legittimi.

La vulnerabilità principale non sta solo nei bug del codice, ma nella logica di funzionamento stessa. Un agente IA è progettato per essere utile, reattivo e collaborativo. Questo lo rende straordinariamente manipolabile. Se qualcuno trova il modo di mascherare un prompt malevolo da istruzione plausibile, l’agente non oppone resistenza, lo esegue. È il trionfo dell’ingegneria sociale tradotta nel linguaggio delle macchine. Pensiamo a un’IA incaricata di gestire l’e-mail aziendale. Un input avversario ben costruito potrebbe convincerla a inoltrare documenti riservati a un indirizzo esterno, senza che nessun essere umano se ne accorga fino a danno compiuto. Lo stesso vale per operazioni finanziarie, accessi a database o processi industriali automatizzati. La superficie d’attacco non è solo ampliata, è moltiplicata.

In questo scenario la narrativa aziendale appare quasi ironica. Ci si affanna a parlare di trasformazione digitale, di nuovi modelli di business, di un futuro senza attriti, eppure si ignora il fatto che la sicurezza non sta tenendo il passo. È come accelerare con un’auto da corsa su una strada di montagna senza barriere laterali. L’ebrezza della velocità fa dimenticare che basta una curva mal calcolata per finire nel burrone. Il problema non è se accadrà, ma quando. E quando accadrà, le conseguenze non saranno limitate a un singolo incidente, ma si ripercuoteranno a catena in un ecosistema interconnesso dove un agente compromesso può diventare un nodo tossico in una rete globale.

La questione è politica oltre che tecnica. Se davvero l’IA agentica diventerà lo standard operativo delle imprese, allora la sua sicurezza non può essere lasciata alla buona volontà dei singoli vendor. Servono linee guida, regolamentazioni, standard minimi che obblighino chi sviluppa e chi utilizza questi sistemi a implementare controlli robusti prima che la distribuzione su larga scala li renda incontrollabili. Non si tratta di frenare l’innovazione, ma di evitare che l’entusiasmo cieco produca nuove vulnerabilità sistemiche. La storia della tecnologia è piena di momenti in cui la corsa al profitto ha preceduto la consapevolezza dei rischi, con conseguenze che abbiamo pagato per decenni. L’IA agentica rischia di essere il prossimo capitolo.

E qui sta il cuore della questione: la promessa dell’autonomia, della velocità, della produttività è reale. Ma reali sono anche i campanelli d’allarme che risuonano da più parti. Il futuro dell’intelligenza artificiale agentica dipenderà dalla capacità di renderla meno ingenua, meno manipolabile, più consapevole dei propri limiti e delle minacce esterne. Senza questo salto qualitativo, consegneremo strumenti di potere straordinario a entità che non hanno alcuna capacità di distinguere un comando legittimo da una trappola. È la differenza tra un alleato affidabile e un complice inconsapevole. Chi oggi celebra gli agenti come la nuova frontiera della produttività dovrebbe avere l’onestà intellettuale di ammettere che stiamo giocando una partita in cui i pezzi non sono ancora pronti per il tabellone globale.