La storia della sicurezza informatica è, in fondo, una storia di asimmetrie. Un difensore deve proteggere ogni riga di codice; un attaccante deve trovarne una sola vulnerabile. Questa regola, semplice e spietata, ha governato quarant’anni di cybersicurezza. Negli ultimi mesi però qualcosa sta cambiando; non perché gli hacker siano diventati più etici, ma perché gli algoritmi stanno iniziando a leggere il codice con una pazienza e una capacità di correlazione che nessun team umano può realisticamente eguagliare.
L’esperimento condotto da Anthropic con il modello Claude Opus 4.6 sul codice di Mozilla Firefox rappresenta un piccolo terremoto in questo equilibrio. Due settimane di audit automatizzato, svolto in collaborazione con il team di sicurezza di Mozilla, hanno prodotto risultati che nel mondo della sicurezza software hanno il peso di un segnale strutturale, non di un semplice esperimento di laboratorio.
Firefox non è un software qualunque. È uno dei progetti open source più analizzati della storia del web, con decenni di revisioni, bug bounty, audit indipendenti e contributi da parte di migliaia di sviluppatori. In altre parole, è esattamente il tipo di codice che dovrebbe essere relativamente “pulito” dal punto di vista delle vulnerabilità critiche. Non perfetto, naturalmente. Il software perfetto è una leggenda urbana inventata probabilmente da qualche venture capitalist durante un pitch sulla sicurezza AI.
In questo contesto, il fatto che un modello di intelligenza artificiale sia riuscito a individuare 22 vulnerabilità, di cui 14 classificate come ad alta gravità, merita attenzione. Non tanto per il numero in sé, quanto per la dinamica con cui sono state scoperte. Claude ha segnalato la prima vulnerabilità dopo circa venti minuti dall’accesso al codice sorgente. Per chi ha lavorato in sicurezza software, questo dato ha qualcosa di quasi irritante nella sua efficienza.
Un team umano impiega normalmente giorni per orientarsi in una codebase complessa. L’AI, invece, non deve familiarizzare con la cultura del repository, non si perde in discussioni su Slack, non ha bisogno di un caffè per interpretare una funzione criptica scritta nel 2009. Semplicemente legge, correla, simula e segnala.
Il risultato finale dell’audit racconta una storia ancora più interessante. Anthropic ha presentato 112 segnalazioni complessive su circa 6.000 file analizzati. Prima ancora che i revisori umani confermassero la prima vulnerabilità, il modello aveva già accumulato una cinquantina di potenziali problemi di sicurezza. Questa velocità non è soltanto un vantaggio operativo; cambia radicalmente l’economia della revisione del codice.
Tradizionalmente, la sicurezza software è costosa perché richiede competenze rare e tempo umano. L’AI riduce drasticamente il costo marginale della scansione. Se un modello può leggere migliaia di file in poche ore, il paradigma di audit annuali o trimestrali diventa improvvisamente antiquato. Si apre invece la possibilità di audit continui, quasi in tempo reale.
Una frase che circola da anni nella sicurezza informatica recita più o meno così: “Ogni bug è inevitabile, la questione è solo quando qualcuno lo troverà”. L’intelligenza artificiale sta trasformando questa frase in una domanda ancora più inquietante. Chi lo troverà per primo: il difensore o l’attaccante?
Il dato forse più significativo dell’esperimento riguarda l’impatto sulle patch. I 14 difetti ad alta gravità individuati da Claude rappresentano circa il 20 percento delle patch di sicurezza più critiche pubblicate da Firefox in un intero anno. In termini pratici significa che un singolo audit AI di due settimane ha individuato una porzione rilevante dei problemi più seri risolti in dodici mesi.
Naturalmente, la storia non è tutta rose e fiori algoritmiche. L’intelligenza artificiale ha dimostrato un talento notevole nell’identificare bug, ma molto meno nel trasformarli in exploit funzionanti. Su centinaia di tentativi, Claude è riuscito a generare soltanto due exploit funzionanti, entrambi ottenuti disabilitando la sandbox del sistema.
Questo punto merita attenzione perché tocca una distinzione fondamentale nella sicurezza informatica: trovare una vulnerabilità non è la stessa cosa che sfruttarla. L’analisi statica del codice può individuare pattern pericolosi; la creazione di exploit richiede invece un lavoro di ingegneria molto più sofisticato, che coinvolge ambiente di esecuzione, memoria, comportamento del sistema operativo e numerosi altri fattori.
In altre parole, per il momento l’AI è un revisore di codice straordinario, ma rimane un hacker piuttosto mediocre. Non è una cattiva notizia.
Anthropic stessa ha osservato che il modello attuale risulta più efficace nella difesa che nell’attacco. Tuttavia l’azienda ha anche riconosciuto che questo divario potrebbe ridursi rapidamente. Chi conosce la storia della tecnologia sa che quando una capacità diventa algoritmica tende a migliorare con velocità quasi imbarazzante.
Il problema, quindi, non è se l’AI diventerà più efficace nello sviluppo di exploit. Il problema è quando.
Una dinamica simile si è già verificata in altri campi tecnologici. Nel mondo della finanza algoritmica, ad esempio, i sistemi progettati per analizzare mercati hanno rapidamente acquisito la capacità di manipolarli. La stessa logica potrebbe applicarsi alla sicurezza software: un sistema progettato per trovare vulnerabilità può, con pochi aggiustamenti, diventare estremamente efficace nello sfruttarle.
Non serve molta immaginazione per capire le implicazioni. Le organizzazioni che utilizzano strumenti AI per l’audit della sicurezza potrebbero ottenere un vantaggio difensivo significativo. Quelle che ignorano questa evoluzione rischiano invece di trovarsi nella posizione peggiore possibile: codice analizzato da aggressori algoritmici ma difeso da processi umani lenti e costosi.
Nel mondo della sicurezza informatica esiste una massima che raramente finisce nei comunicati stampa: la sicurezza reale è sempre relativa al livello tecnologico dell’attaccante. Se l’attaccante usa strumenti avanzati e il difensore no, la partita è già persa.
La diffusione di modelli AI capaci di leggere codice su larga scala cambia quindi il punto di equilibrio dell’intero settore. L’idea romantica dello sviluppatore geniale che individua una vulnerabilità osservando una funzione sospetta alle tre di notte non scomparirà, ma sarà affiancata da qualcosa di molto più sistematico: macchine che scandagliano ogni commit con una precisione quasi ossessiva.
Questo non significa che i programmatori diventeranno inutili. Significa piuttosto che la loro funzione cambierà. Il lavoro umano si sposterà sempre più dalla ricerca manuale dei bug alla validazione delle segnalazioni prodotte dalle AI, alla progettazione di architetture più sicure e alla gestione di sistemi complessi.
Un effetto collaterale interessante riguarda l’open source. Progetti come Firefox potrebbero beneficiare enormemente di strumenti di audit automatizzati. La comunità open source ha sempre fatto affidamento su un principio quasi darwiniano chiamato “many eyes”. Più occhi osservano il codice, più è probabile che qualcuno trovi un problema.
L’intelligenza artificiale rappresenta, in un certo senso, l’evoluzione logica di questo principio. Non più molti occhi umani, ma milioni di correlazioni algoritmiche che attraversano il codice con una velocità impensabile.
Una frase spesso attribuita a Linus Torvalds recita: “Given enough eyeballs, all bugs are shallow”. Con l’intelligenza artificiale la frase potrebbe essere aggiornata in modo meno poetico ma più realistico. Con abbastanza GPU, quasi tutti i bug diventano statisticamente inevitabili.
Rimane però una domanda strategica che le aziende tecnologiche stanno iniziando a porsi con una certa inquietudine. Se gli strumenti per analizzare codice diventano sempre più potenti, quanto tempo passerà prima che attori malevoli li utilizzino sistematicamente contro software commerciali, infrastrutture critiche o sistemi governativi?
La sicurezza informatica ha sempre vissuto in equilibrio tra difesa e attacco. L’intelligenza artificiale rischia di accelerare entrambe le direzioni contemporaneamente. Da un lato, le aziende possono identificare vulnerabilità molto più velocemente; dall’altro, gli aggressori possono fare esattamente la stessa cosa.
Il risultato è un’ulteriore accelerazione della corsa agli armamenti digitale.
Nel breve periodo, tuttavia, l’esperimento su Firefox offre una lezione piuttosto chiara. Le organizzazioni che sviluppano software complesso non possono più permettersi di ignorare gli strumenti di audit basati su AI. Non perché siano perfetti, ma perché stanno diventando rapidamente indispensabili.
Ogni rivoluzione tecnologica inizia con un esperimento che sembra quasi banale. Un modello che legge codice. Un paio di settimane di analisi. Alcune vulnerabilità scoperte più velocemente del previsto.
Dietro questa apparente semplicità si nasconde però un cambiamento molto più profondo. Il codice, per la prima volta nella storia dell’informatica, non viene più letto soltanto dagli esseri umani che lo scrivono.
Viene letto anche dalle macchine.
E le macchine, come qualsiasi buon revisore di codice, non hanno nessuna pazienza per gli errori.
Blog Anthropic: https://www.anthropic.com/news/mozilla-firefox-security?utm_source=Generative_AI&utm_medium=Newsletter&utm_campaign=openai-is-building-its-own-github-to-ditch-microsoft-can-it-steal-100m-devs&_bhlid=65e7648554492478954786c00e22f2080cdae215