La rivoluzione degli agenti di intelligenza artificiale ha un volto affascinante e uno oscuro. Mentre le imprese si affrettano a integrare queste entità digitali autonome nei processi quotidiani, si apre una falla pericolosa nella sicurezza aziendale. L’avvertimento di Nikesh Arora, CEO di Palo Alto Networks, suona più come una sirena d’allarme che come una previsione. Gli agenti di AI non sono più strumenti, ma attori. Operano dentro le infrastrutture aziendali con accessi, privilegi e capacità decisionali che fino a ieri erano esclusivamente umane. E il sistema di sicurezza tradizionale, costruito attorno all’identità delle persone, si trova improvvisamente nudo.
La keyword qui è “identità digitale”, ma quella che si sta delineando non appartiene più a esseri umani. Ogni agente AI è un utente a sé, capace di entrare in database, modificare file e scambiare informazioni con altri sistemi. Solo che nessuno, davvero nessuno, sa esattamente cosa stia facendo. Arora definisce questo scenario un “Far West” digitale, dove i badge di accesso non servono più e i nuovi cowboy sono algoritmi che apprendono, si adattano e agiscono. L’illusione di controllo si dissolve nel momento in cui il software inizia a prendere decisioni che impattano sui processi core di un’azienda senza bisogno di autorizzazioni umane.
In questa giungla, la superficie d’attacco cresce in modo esponenziale. Ogni agente di AI è un potenziale superutente, dotato di privilegi estesi e accesso a informazioni sensibili. Gli hacker non hanno dovuto aspettare molto per sfruttare questa vulnerabilità: agenti generativi manipolati per compiere esfiltrazioni di dati, campagne di phishing automatizzate, attacchi via SMS orchestrati da intelligenze che simulano perfettamente comportamenti umani. Palo Alto Networks ha già tracciato oltre 194.000 domini malevoli legati a queste nuove forme di automazione offensiva. È come se il cyberspazio avesse appena scoperto la clonazione.
Il problema è che i sistemi di gestione delle identità non sono pronti. Le piattaforme di Privileged Access Management (PAM) controllano una ristretta élite di utenti con accessi critici, ma ignorano la massa di identità ibride e digitali che oggi muovono il lavoro quotidiano. Si tratta del 90% della forza lavoro digitale, una cifra spaventosa se si considera che la maggior parte degli incidenti di sicurezza nasce da errori o abusi di credenziali interne. Arora lo dice chiaramente: “Sappiamo cosa fanno i nostri dirigenti IT, ma non abbiamo idea di cosa stiano facendo i loro assistenti virtuali.”
La questione è tanto tecnica quanto filosofica. Cosa significa “fidarsi” di un’intelligenza artificiale che prende decisioni operative? L’AI non ha moralità, non ha senso di responsabilità e non conosce la differenza tra un file riservato e uno pubblico se non gliela si insegna esplicitamente. Eppure, le aziende le affidano sempre più ruoli decisionali, dai sistemi di analisi finanziaria agli strumenti di automazione delle risorse umane. L’ironia è che, nella corsa all’efficienza, l’impresa moderna sta creando un nuovo tipo di insider threat: quello artificiale.
C’è però un paradosso interessante. La stessa AI che oggi espande il rischio può diventare il miglior alleato della difesa. Palo Alto Networks sta già lavorando in questa direzione, integrando le tecnologie acquisite da CyberArk in una piattaforma unificata di identità intelligente. Il nuovo Cortex AgentiX rappresenta il primo tentativo concreto di rispondere a un problema che fino a poco tempo fa non esisteva. Si tratta di un sistema che utilizza modelli di machine learning addestrati su oltre 1,2 miliardi di scenari di minaccia per individuare, tracciare e neutralizzare attacchi in tempo reale. È un’AI che controlla altre AI, in una sorta di simbiosi cibernetica dove l’uomo resta, per ora, nel ruolo di supervisore.
Arora immagina un futuro di “umani nel loop”, dove le decisioni automatizzate vengono approvate da persone fino a quando i sistemi non dimostreranno di meritarsi piena autonomia. È un approccio pragmatico, quasi politico, che riconosce la necessità di bilanciare velocità e fiducia. Ma è anche un’ammissione di fragilità: l’AI non è ancora pronta a gestire se stessa, e forse non lo sarà mai senza ridefinire il concetto di governance digitale.
La sfida che si profila non riguarda più soltanto la sicurezza, ma la natura stessa del potere informatico. Se fino a ieri il perimetro da difendere era fatto di utenti e password, oggi si parla di ecosistemi autonomi che scambiano decisioni, dati e strategie. La cybersecurity dovrà evolvere da un modello di controllo statico a uno di verifica continua, un sistema in cui la fiducia diventa un processo dinamico e costantemente rinegoziato. La nuova parola d’ordine sarà “trust engineering”, la capacità di misurare e aggiornare la fiducia in tempo reale tra entità umane e digitali.
Il rischio, se non si interviene ora, è che le aziende perdano il controllo del proprio ecosistema digitale, lasciando che gli agenti di AI operino come microimprese autonome all’interno dell’impresa madre. La minaccia non è fantascientifica, è gestionale. Un agente che si autoaddestra su dati sensibili e modifica un processo ERP potrebbe causare danni maggiori di un hacker esterno. Non serve un attacco: basta un’azione non verificata.
Le imprese stanno per affrontare un nuovo tipo di identità aziendale, fatta di ibridi tra uomo e macchina. Ogni decisione automatizzata dovrà essere tracciata, ogni azione validata, ogni algoritmo autenticato. È l’inizio di un’era in cui il concetto stesso di “utente” perde significato e viene sostituito da quello di “entità digitale”. E in questa trasformazione, chi non ripensa da zero il proprio modello di sicurezza non sarà semplicemente vulnerabile: sarà irrilevante.
Nel mondo della cybersecurity, l’AI è passata da essere un problema da gestire a una forza con cui negoziare. Chi saprà addestrarla, contenerla e usarla come scudo avrà il vantaggio competitivo. Gli altri scopriranno troppo tardi che il nuovo nemico non arriva più da fuori, ma è già dentro i loro server, pronto a firmare digitalmente il prossimo disastro.