Il debutto di Claude Mythos Preview all’interno del progetto Glasswing segna qualcosa di più sottile e, per certi versi, più inquietante non è l’ennesima iterazione di un chatbot più brillante o di un copilota più efficiente. È un cambio di paradigma: l’automazione della scoperta delle vulnerabilità, portata a un livello in cui la presenza umana diventa quasi un dettaglio opzionale.

Anthropic, con una mossa che odora tanto di strategia quanto di prudenza, ha scelto di non rendere pubblico il modello. Decisione interessante, perché nell’era della distribuzione virale e delle API democratizzate, trattenere un sistema avanzato equivale a dichiarare implicitamente che il rischio supera il potenziale marketing. Tradotto: questo strumento è troppo potente per essere lasciato libero. Una frase che Silicon Valley raramente pronuncia ad alta voce.

Il progetto Glasswing si inserisce in una narrativa ormai consolidata: la cybersecurity come corsa agli armamenti. Da una parte attaccanti sempre più sofisticati, dall’altra difensori che tentano di recuperare terreno con strumenti automatizzati. La differenza, questa volta, è che l’AI non si limita ad assistere. Agisce. Analizza sistemi complessi, individua vulnerabilità critiche e, dettaglio non secondario, sviluppa exploit correlati senza intervento umano. Una capacità che, se confermata su larga scala, sposta l’equilibrio da “difendere meglio” a “anticipare completamente”.

La storia della sicurezza informatica è costellata di promesse simili. Negli anni Novanta si parlava di firewall come mura invalicabili; nei Duemila gli IDS e IPS avrebbero dovuto intercettare ogni minaccia; più recentemente, il machine learning prometteva di riconoscere pattern invisibili all’occhio umano. Ogni ciclo ha prodotto miglioramenti reali, ma anche nuove superfici d’attacco. Mythos sembra voler saltare un passaggio: eliminare il tempo di reazione umano.

Il dato più interessante, e forse più sottovalutato, è la capacità del modello di operare su larga scala. “Migliaia di vulnerabilità ad alta gravità” identificate in poche settimane, distribuite su sistemi operativi e browser mainstream. Se anche solo una frazione di questa affermazione fosse verificabile in ambienti reali, ci troveremmo davanti a un moltiplicatore di capacità difensiva senza precedenti. Una sorta di audit continuo, perpetuo, instancabile.

Naturalmente, il problema non è cosa può fare Mythos per i difensori. Il problema è cosa potrebbe fare nelle mani sbagliate. Anthropic lo sa, e la scelta di limitarne l’accesso a un ristretto gruppo di partner è la prova più evidente. Tra questi, nomi che definiscono l’infrastruttura digitale globale: hyperscaler, produttori di hardware, istituzioni finanziarie, organizzazioni open source. Una coalizione che sembra uscita da un manuale di geopolitica tecnologica più che da un comunicato stampa.

Il coinvolgimento di attori come Nvidia, Google, Amazon Web Services, Apple e Microsoft non è casuale. Queste aziende non sono semplicemente clienti o partner. Sono, di fatto, custodi di porzioni significative dell’infrastruttura digitale mondiale. Se Mythos funziona, il suo impatto sarà sistemico. Se fallisce, il rischio sarà altrettanto sistemico.

Interessante anche la componente economica. Anthropic ha stanziato fino a 100 milioni di dollari in crediti d’uso, più donazioni dirette a fondazioni open source. Un investimento che ricorda le strategie di land grab tipiche del cloud computing nei primi anni 2010. Regalare capacità oggi per creare dipendenza domani. Se il modello dimostrerà valore reale, la transizione verso un servizio a pagamento sarà quasi inevitabile. La sicurezza, dopotutto, è uno dei pochi ambiti in cui le aziende sono disposte a pagare senza troppe resistenze, soprattutto quando il rischio è esistenziale.

Sul piano tecnologico, ciò che rende Mythos particolarmente interessante è la sua natura non specialistica. Non è stato addestrato esclusivamente per la cybersecurity. Le sue capacità emergono da competenze più generali: coding agentico, ragionamento avanzato, capacità di navigare sistemi complessi. In altre parole, è un prodotto della convergenza, non della specializzazione. Un trend che stiamo osservando sempre più spesso nell’AI contemporanea: modelli generalisti che superano sistemi verticali in compiti specifici.

Questa convergenza ha implicazioni profonde. Se un modello general-purpose può identificare vulnerabilità e sviluppare exploit, allora la barriera tra sviluppo software e attacco informatico si assottiglia pericolosamente. La stessa competenza che permette di costruire può essere utilizzata per distruggere. È il classico problema del dual use, amplificato da un fattore di scala e velocità che la storia non ha mai conosciuto.

Il coinvolgimento del governo statunitense aggiunge un ulteriore livello di complessità. Le discussioni tra Anthropic e funzionari governativi suggeriscono che Mythos non è visto solo come uno strumento commerciale, ma come un asset strategico. In un contesto geopolitico in cui la guerra cibernetica è già una realtà, avere accesso a un sistema capace di identificare e sfruttare vulnerabilità in modo autonomo rappresenta un vantaggio competitivo significativo.

Non sorprende, quindi, la reticenza nel condividere dettagli tecnici. La trasparenza, tanto celebrata nel mondo open source, qui diventa un lusso pericoloso. Più si sa su come funziona Mythos, più diventa facile replicarne o aggirarne le capacità. Un paradosso interessante: l’AI che protegge deve rimanere segreta per essere efficace.

Dal punto di vista strategico, Glasswing rappresenta anche un test di governance. Come si controlla un sistema che opera autonomamente su infrastrutture critiche? Quali sono i meccanismi di audit, di responsabilità, di intervento umano? Il fatto che Anthropic non menzioni esplicitamente un “human in the loop” continuo è, per usare un eufemismo, degno di nota. L’autonomia totale è efficiente, ma introduce rischi difficili da modellare.

La storia economica offre paralleli utili. Quando IBM introdusse i mainframe, le aziende delegarono processi critici a macchine centralizzate. Quando Amazon lanciò il cloud, le imprese iniziarono a esternalizzare infrastrutture fondamentali. Ogni volta, il vantaggio operativo era accompagnato da una perdita di controllo diretto. Mythos sembra portare questo processo all’estremo: esternalizzare non solo l’infrastruttura, ma anche la capacità di difenderla.

Il rischio più grande, tuttavia, non è tecnico. È culturale. La promessa di una cybersecurity autonoma potrebbe indurre le organizzazioni a ridurre investimenti in competenze umane, affidandosi eccessivamente a sistemi automatizzati. Una dinamica già vista in altri ambiti dell’AI, dove l’automazione crea dipendenza e, paradossalmente, vulnerabilità sistemiche.

La narrativa dominante parla di “head start” per i difensori. Una metafora sportiva che suggerisce vantaggio, ma non vittoria. Gli attaccanti, dopotutto, non restano fermi. Se Mythos o sistemi simili dovessero trapelare o essere replicati, il vantaggio potrebbe rapidamente annullarsi. La storia della tecnologia insegna che ogni innovazione difensiva genera una contro-innovazione offensiva.

In questo contesto, la vera domanda non è se Mythos funzionerà, ma quanto durerà il suo vantaggio competitivo. E, soprattutto, chi controllerà l’accesso a queste capacità. La concentrazione in poche mani potrebbe rafforzare ulteriormente il potere dei grandi player tecnologici, creando una nuova forma di oligopolio: quello della sicurezza automatizzata.

Un’osservazione quasi ironica emerge da tutto questo. Per decenni, la cybersecurity è stata descritta come un problema umano: errori, distrazioni, mancanza di formazione. Ora, la soluzione proposta è eliminare l’umano dal ciclo decisionale. Una semplificazione elegante, ma pericolosa. Perché se l’AI può trovare e sfruttare vulnerabilità senza supervisione, allora può anche commettere errori senza supervisione.

Il futuro delineato da Glasswing è affascinante e inquietante allo stesso tempo. Un mondo in cui le macchine difendono le macchine, in una danza continua di analisi e contromisure. Un ecosistema autonomo, efficiente, ma potenzialmente opaco. In cui la velocità diventa più importante della comprensione, e l’efficacia più della trasparenza.

Qualcuno, con una punta di sarcasmo, potrebbe dire che stiamo finalmente realizzando il sogno di ogni CIO: sistemi che si gestiscono da soli. Qualcun altro, più pragmatico, potrebbe ricordare che ogni sistema autonomo è, in ultima analisi, progettato da esseri umani. Con tutte le loro imperfezioni.

Mythos non è solo un modello. È un segnale. Indica la direzione in cui si sta muovendo l’intero settore: verso un’automazione sempre più profonda, sempre più invisibile, sempre meno controllabile. Un percorso che promette efficienza e sicurezza, ma che richiede, più che mai, una riflessione strategica lucida.

Nel frattempo, le aziende coinvolte testeranno, analizzeranno, valuteranno. I comunicati stampa parleranno di successi, le metriche mostreranno miglioramenti, e il mercato, come sempre, reagirà con entusiasmo selettivo. La vera partita, però, si giocherà lontano dai riflettori. Nei dettagli tecnici, nelle decisioni di governance, nelle scelte di accesso.

Come spesso accade nel mondo della tecnologia, il risultato finale sarà meno elegante di quanto promesso e più complesso di quanto previsto. Una verità che nessun modello, per quanto avanzato, sembra ancora in grado di automatizzare.

Blog: https://red.anthropic.com/2026/mythos-preview