GenAI Incident Response Guide

Quando un sistema AI mente, chi va in galera? Questa non è una provocazione da convegno, ma la prima domanda che ogni board dovrebbe farsi quando apre bocca l’ennesimo chatbot aziendale. La risposta breve? Nessuno. Ma il problema lungo è che la responsabilità evapora come il senso nei prompt generativi.

Con l’arrivo di strumenti come ChatGPT, Copilot e MathGPT, l’illusione del controllo è diventata una voce a bilancio, mentre la realtà è che il rischio si è trasferito, silenziosamente, dalla rete all’algoritmo. L’OWASP GenAI Incident Response Guide prova a mettere ordine in questo disastro annunciato. Ma attenzione: non è un manuale per nerd della sicurezza. È un campanello d’allarme per CEO, CISO e chiunque stia firmando budget per LLM senza sapere esattamente cosa stia autorizzando.

I casi documentati nel rapporto sono da manuale del grottesco. Il chatbot di Air Canada che inventa politiche aziendali. Tay, il chatbot di Microsoft, trasformato in suprematista dopo 24 ore su Twitter. EchoLeak, l’exploit di prompt injection più elegante dell’anno, che riesce a esfiltrare dati sensibili da Copilot con una semplice email camuffata da “istruzione utente”. Non stiamo parlando di attacchi a basso livello. Nessuno ha violato i firewall. È l’intelligenza artificiale che si è sabotata da sola.

Eppure il 50% delle aziende, secondo McKinsey, non ha ancora uno straccio di piano di gestione per un genai incident response. Una voragine, considerando che questi sistemi non vanno patchati, ma educati. E se li educhi male, mentono, discriminano, violano policy. Non serve un hacker per generare il caos. Basta un prompt.

Cosa distingue un “AI incident” da un normale breach informatico? L’assenza di un nemico tangibile. Un AI incident è spesso frutto del comportamento stesso del sistema, non di un attacco esterno. Se l’algoritmo discrimina, non c’è codice malevolo. Se un agente AI manda dati riservati a un server russo dopo aver letto un blog truccato, non è colpa della rete, ma del sistema che crede ai link come fossero verità rivelate.

La guida OWASP classifica i problemi in quattro layer: runtime, model, implementation, system. Ma la vera differenza è concettuale: la variabile impazzita qui non è un file corrotto, ma il linguaggio stesso. L’interazione naturale con l’AI è il suo tallone d’Achille. L’attacco parte dal significato delle parole. Un paradosso sublime: più un LLM è bravo a capire il contesto, più è vulnerabile a chi sa manipolarlo.

Ecco perché la genai incident response non può essere gestita con lo stesso playbook degli attacchi ransomware. Serve una nuova grammatica operativa. Serve loggare ogni prompt, analizzare ogni output, capire quando una risposta diventa un’indicazione compromessa. Serve accettare che l’AI è uno strumento stocastico e, per questo, potenzialmente caotico. È come se ogni volta che apri Excel ci fosse una piccola possibilità che inizi a scrivere versi di Bukowski al posto dei bilanci. Surreale? Sì. Ma perfettamente coerente con la realtà delle LLM.

La provocazione è servita: chi è il CISO della tua AI? Chi controlla che il tuo agente AI non diventi un insider threat inconsapevole? Perché è già successo. E quando succede, scopri che nessuno ha previsto i log, le metriche, le dashboard, le escalation. Scopri che le tue AI lavorano come stagisti geniali ma imprevedibili. E tu non hai nemmeno firmato il modulo GDPR.

Le aziende che sopravviveranno non saranno quelle con più budget, ma quelle con un AI security framework adattivo, in grado di distinguere tra failure tecnica e fallimento semantico. Saranno quelle che classificano gli asset AI in base alla loro funzione, criticità, sensibilità dei dati e modalità di deployment. Non è sexy, ma è indispensabile.

E qui arriva la parte meno discussa, ma più esplosiva: gli AI incidents non hanno una “firma” riconoscibile. Nessun exploit standard. Nessuna sequenza nota. Solo un output sbagliato, un comportamento strano, una decisione automatizzata che improvvisamente non fa più senso. Il sistema è in produzione, tutto sembra funzionare, ma qualcuno riceve un’email generata automaticamente con un’informazione che non doveva esistere.

Il concetto di “blast radius”, introdotto dalla guida OWASP, è una metafora bellica perfetta: quando esplode un’AI incident, l’impatto si misura in fiducia, non in pacchetti persi. E la fiducia è fragile. Bastano due tweet virali su un chatbot che fa battute razziste, e il tuo brand vale meno di un NFT di seconda mano.

In definitiva, non si tratta più solo di proteggere reti, ma di allenare modelli. Non si tratta più solo di monitorare accessi, ma di analizzare linguaggio, comportamento, ambiguità. E soprattutto, non si tratta più di “se” avverrà un AI incident, ma di “quando”. E quando succederà, scoprirai se il tuo team ha le risposte o solo le slide.

È tempo di smettere di trattare l’intelligenza artificiale come una tecnologia e iniziare a trattarla come un soggetto operativo. Capace di agire, di sbagliare, di compromettere. E allora la domanda torna: chi va in galera quando l’AI sbaglia? Nessuno, ancora. Ma la responsabilità, quella sì, è tua. Perché l’hai messa in produzione. Senza chiederti come reagirà il mondo quando avrà torto.