Il dato, freddo e brutale, merita di essere letto due volte prima di essere compreso davvero: il 67% dei dirigenti C-level dichiara che la propria organizzazione è stata colpita da attacchi abilitati dall’intelligenza artificiale nell’ultimo anno. Non si tratta di un’anomalia statistica né di una moda narrativa utile a vendere report costosi; è la fotografia di un cambio di fase. Le guerre tecnologiche non si combattono più sulle infrastrutture, ma sulle identità digitali e sulla velocità di adattamento degli algoritmi. In altre parole, la cybersecurity è diventata una disciplina darwiniana, dove sopravvive chi evolve più rapidamente, non chi costruisce muri più alti.
Chi ha vissuto l’era dei firewall perimetrali e dei SOC pieni di analisti insonni fatica ad accettarlo, ma il modello mentale è ormai obsoleto. Il perimetro non esiste più. Non è una provocazione, è una constatazione tecnica. L’adozione massiva del cloud, delle API e dei sistemi distribuiti ha dissolto il concetto stesso di confine aziendale, trasformando ogni nodo in un possibile punto di attacco. L’intelligenza artificiale, in questo scenario, non è un semplice acceleratore; è un moltiplicatore di complessità.
Il punto di rottura evocato da molti analisti non è tanto tecnologico quanto cognitivo. Le organizzazioni continuano a difendersi con modelli lineari in un mondo che è diventato esponenziale. Gli attaccanti, al contrario, hanno già fatto il salto. Utilizzano agenti autonomi, sistemi capaci di apprendere in tempo reale, adattarsi alle difese e ottimizzare le strategie di intrusione senza intervento umano. Non è più hacking nel senso classico del termine; è un ecosistema di entità software che operano come una colonia di insetti digitali, coordinati e resilienti.
Il cosiddetto “agentic battlefield” non è una metafora giornalistica, ma una descrizione operativa. Gli attacchi non sono più sequenze statiche di exploit, ma processi dinamici che evolvono durante l’esecuzione. Un malware tradizionale è prevedibile; un agente AI no. Questo cambia tutto. Significa che il tempo di risposta umano diventa irrilevante. Significa che il concetto stesso di incidente deve essere ridefinito. Significa, soprattutto, che la difesa deve diventare autonoma.
Una delle illusioni più pericolose, e qui il cinismo diventa necessario, è che l’intelligenza artificiale possa essere “controllata” attraverso policy e governance tradizionali. La realtà è che molti sistemi AI operano già oggi in una zona grigia, dove le decisioni emergono da modelli complessi e non completamente interpretabili. Pretendere di governarli con checklist di compliance è come cercare di regolare il traffico di una metropoli con un semaforo manuale.
Il tema dell’identità è forse il più sottovalutato, e non sorprende. Storicamente, la sicurezza informatica ha sempre trattato utenti e sistemi come entità ben definite. Oggi, invece, gli agenti AI sfuggono a questa categorizzazione. Non sono utenti, non sono servizi, non sono processi. Sono qualcosa di diverso, e il fatto che il 68% delle organizzazioni non li tratti come identità autonome è un errore strategico prima ancora che tecnico.
L’autenticazione una tantum, combinata con permessi ereditati, rappresenta una vulnerabilità strutturale. In un mondo di agenti autonomi, il concetto di fiducia implicita diventa tossico. Un agente compromesso non si limita a eseguire un’azione malevola; propaga il problema attraverso l’intero ecosistema, contaminando dati, modelli e decisioni. È un effetto domino che ricorda più una crisi finanziaria che un attacco informatico. Il parallelismo con il collasso del sistema dei mutui subprime non è casuale. Anche lì, il problema non era l’errore iniziale, ma la sua propagazione incontrollata.
Nel frattempo, il mercato si muove con la consueta miscela di entusiasmo e opportunismo. Le grandi aziende tecnologiche, da IBM a Palo Alto Networks, stanno ridefinendo il proprio posizionamento, spingendo narrative che parlano di “AI che protegge l’AI”. Una formula elegante, quasi tautologica, che però nasconde una verità scomoda: non esiste alternativa. Quando la minaccia opera alla velocità della macchina, la difesa non può permettersi di essere umana.
Il concetto di AI Exposure Management rappresenta un tentativo di sistematizzare questo cambio di paradigma. Non si tratta semplicemente di migliorare la visibilità o accelerare la risposta agli incidenti. Si tratta di ripensare completamente il ciclo di vita della sicurezza, passando da un approccio reattivo a uno predittivo e continuo. In altre parole, la sicurezza smette di essere una funzione e diventa un processo distribuito, integrato in ogni livello dell’infrastruttura.
L’esempio di TELUS Digital, che ha ridotto i tempi di risposta agli incidenti del 65%, è interessante ma non sorprendente. Automatizzare la detection e la remediation è un passo logico. La vera domanda, però, è un’altra: cosa succede quando anche gli attaccanti automatizzano completamente le loro operazioni? La risposta, se vogliamo essere onesti, è che entriamo in una fase di escalation continua, dove il vantaggio competitivo diventa temporaneo e fragile.
La storia della tecnologia è piena di cicli simili. Dalla crittografia alla guerra dei browser, fino alla corsa al cloud, ogni innovazione ha generato una contro-innovazione. L’intelligenza artificiale non fa eccezione. La differenza è che questa volta la velocità del ciclo è senza precedenti. Non parliamo più di anni, ma di settimane, a volte giorni. Il tempo strategico si è compresso.
Una delle narrazioni più diffuse, e forse più ingenue, è che l’intelligenza artificiale porterà maggiore sicurezza grazie alla sua capacità di analizzare grandi quantità di dati. È una mezza verità. L’AI aumenta la visibilità, ma aumenta anche la superficie di attacco. Ogni modello, ogni dataset, ogni API rappresenta un potenziale punto di vulnerabilità. Più sofisticato è il sistema, più sofisticati diventano gli attacchi.
Il caso di Anthropic e del presunto “Claude hack” del 2025, spesso citato come esempio emblematico, è stato trattato con una certa superficialità. Non tanto per la gravità dell’incidente, quanto per le sue implicazioni sistemiche. Quando un modello AI viene compromesso, il problema non è solo l’accesso non autorizzato, ma la possibilità di manipolare il comportamento del sistema in modo persistente. È un attacco alla logica, non solo ai dati.
Il paradosso, se vogliamo chiamarlo così, è che le organizzazioni continuano a investire miliardi nell’adozione dell’intelligenza artificiale senza una strategia di sicurezza adeguata. È una dinamica già vista, quasi inevitabile. L’innovazione corre, la governance insegue. Nel frattempo, il rischio si accumula.
Una frase che circola spesso nei boardroom, e che merita di essere smontata con una certa ironia, è che “la sicurezza è un abilitatore del business”. In teoria è vero. In pratica, nella maggior parte delle aziende, la sicurezza è ancora percepita come un costo. Questo crea un disallineamento pericoloso. Finché la sicurezza non viene integrata nella strategia, e non trattata come un vantaggio competitivo, le organizzazioni continueranno a essere vulnerabili.
Il futuro, per quanto possa sembrare un cliché, appartiene a chi saprà costruire sistemi autonomi, resilienti e adattivi. Non è una questione di tecnologia, ma di architettura. Le aziende che vinceranno non saranno necessariamente quelle con i migliori modelli AI, ma quelle con le migliori capacità di orchestrazione. In un mondo di agenti, il vero potere sta nella capacità di coordinarli.
Qualcuno potrebbe obiettare che stiamo entrando in una spirale pericolosa, dove macchine difendono contro macchine in un ciclo potenzialmente incontrollabile. È una preoccupazione legittima, ma anche inevitabile. La storia insegna che la tecnologia non si ferma di fronte ai rischi; li integra. La vera sfida, quindi, non è fermare questa evoluzione, ma governarla.
Nel frattempo, il messaggio per i leader è sorprendentemente semplice, anche se difficilmente digeribile. Se la tua strategia di sicurezza si basa ancora sull’intervento umano come primo livello di difesa, sei già in ritardo. Non di qualche mese, ma di un’intera generazione tecnologica. La velocità è diventata la nuova unità di misura del rischio.
Una frase, forse brutale ma necessaria, sintetizza la situazione meglio di qualsiasi report: la cybersecurity non è più una questione di prevenzione, ma di competizione tra intelligenze artificiali. Chi perde non se ne accorge subito. Se ne accorge quando è troppo tardi.
IBM: https://media.licdn.com/dms/document/media/v2/D4E1FAQEOsfCyLPEzKg/feedshare-document-pdf-analyzed/B4EZ0_oxlGGQAY-/0/1774889150908?e=1775692800&v=beta&t=Fo60Ri6R8ZVZBN9LFgmM-2Ggzyd9tKJv6EyYPT6gsxU
