Il caso Claude Mythos introduce una variabile meno celebrata ma decisamente più interessante: la paura. Non quella esistenziale, ormai inflazionata nei panel di Davos, ma quella concreta, misurabile, che si riflette nei mercati finanziari e nelle architetture di sicurezza delle imprese. Quando Anthropic parla del suo nuovo modello come di un salto di paradigma, più potente della linea Opus e capace di eccellere in coding, ragionamento e cybersecurity, non sta solo facendo marketing; sta ridefinendo implicitamente la linea di confine tra chi costruisce software e chi lo disintermedia.

Il dettaglio più rivelatore non è tanto la performance dichiarata, che ormai segue una curva inflazionata di superlativi, quanto il contesto in cui questa informazione emerge: un leak. Un errore umano, una configurazione sbagliata di un CMS, e improvvisamente il modello più avanzato di una delle aziende più sofisticate al mondo diventa materia pubblica. Una dinamica quasi ironica, se si considera che lo stesso modello viene descritto come straordinariamente avanzato proprio in ambito cybersecurity. La storia tecnologica è piena di queste contraddizioni; basti pensare a come Facebook abbia costruito imperi sulla gestione dei dati per poi inciampare ripetutamente nella loro protezione. La differenza, oggi, è che l’impatto è immediato e amplificato.

Claude Mythos non è solo un modello più grande; è, nelle parole interne dell’azienda, una nuova “tier” di intelligenza artificiale. Il naming non è casuale. “Mythos” evoca connessioni profonde, una rete semantica quasi organica tra conoscenza e inferenza. Un lessico che tradisce una ambizione ben precisa: trasformare il modello da strumento a infrastruttura cognitiva. Chi ha memoria della transizione dal software on-premise al cloud riconosce questo schema. All’epoca, pochi compresero che il vero valore non era nell’applicazione ma nel layer sottostante. Oggi il rischio, o l’opportunità, è che i foundation model diventino il nuovo sistema operativo del business globale.

Il mercato, come spesso accade, ha reagito prima degli analisti. Titoli come Palo Alto Networks, CrowdStrike e Fortinet hanno registrato cali significativi dopo la notizia. Non perché Claude Mythos sia già in grado di sostituire le loro soluzioni, ma perché introduce un’ipotesi inquietante: che la sicurezza informatica possa diventare una funzione embedded nei modelli stessi. In altre parole, se l’AI può scoprire vulnerabilità meglio degli umani, può anche correggerle, automatizzando una parte significativa della value chain della cybersecurity.

Questa dinamica richiama un precedente recente, quando il rilascio di strumenti agentici da parte di Anthropic ha bruciato centinaia di miliardi di capitalizzazione nel settore software. Il messaggio implicito è brutale nella sua semplicità: se controlli il modello, controlli l’applicazione. Un principio che nel mondo del venture capital si traduce in una domanda scomoda per ogni startup SaaS: quanto del tuo prodotto è realmente difendibile quando il layer sottostante diventa sempre più intelligente?

La narrativa ufficiale insiste sulla cautela. Accesso limitato, partnership selezionate, focus sulla difesa. Una strategia che ricorda da vicino le politiche adottate da OpenAI nei suoi momenti più sensibili, quando la potenza del modello superava la capacità del mercato di assorbirla. Tuttavia, la storia insegna che la cautela è spesso una fase transitoria. L’innovazione, soprattutto in ambito competitivo, tende a trovare la sua strada verso la diffusione, indipendentemente dalle intenzioni iniziali.

Il punto più delicato riguarda proprio la cybersecurity. Anthropic ammette esplicitamente che Mythos è “molto avanti” rispetto ad altri modelli nella capacità di identificare e sfruttare vulnerabilità. Una dichiarazione che, letta tra le righe, suona come un avvertimento più che come un vanto. La simmetria tra attacco e difesa, già fragile nel cyberspazio tradizionale, rischia di collassare sotto il peso di sistemi capaci di apprendere e adattarsi in tempo reale. La velocità diventa il fattore critico. Non più giorni o ore per patchare una falla, ma minuti, forse secondi.

Qui emerge una delle contraddizioni più affascinanti dell’attuale fase tecnologica. Da un lato, le aziende investono miliardi per sviluppare modelli sempre più potenti; dall’altro, temono le implicazioni di questi stessi modelli. È il classico dilemma dell’innovazione accelerata, descritto già negli anni Sessanta dagli economisti dell’MIT: la capacità di fare qualcosa supera la capacità di governarne le conseguenze. Nel caso dell’AI, questa dinamica è amplificata dalla natura stessa della tecnologia, che non si limita a eseguire compiti ma li reinventa.

Il leak di Mythos aggiunge un ulteriore livello di complessità: la trasparenza involontaria. In un settore dove il vantaggio competitivo è spesso legato al segreto industriale, la fuga di informazioni diventa un fattore di mercato. Gli investitori reagiscono non solo ai fatti, ma alle percezioni. E la percezione, in questo caso, è che la corsa all’AI stia entrando in una fase in cui le regole del gioco cambiano più velocemente della capacità degli attori di adattarsi.

Una nota quasi ironica riguarda il nome interno della versione successiva: “Capybara”. In un’industria che oscilla tra il culto della serietà scientifica e l’estetica dei meme, la scelta di nomi apparentemente casuali nasconde spesso una verità più profonda. La cultura tecnologica contemporanea vive di contrasti. Modelli che possono ridefinire interi settori economici vengono battezzati con riferimenti che sembrano usciti da un thread di Reddit. È un segnale, forse, che nemmeno chi costruisce queste tecnologie ha ancora pienamente metabolizzato la portata del proprio lavoro.

La questione centrale, tuttavia, rimane strategica. Se Mythos rappresenta davvero un salto qualitativo, come suggerito dai documenti interni, allora il vero impatto non sarà immediato ma sistemico. Le aziende dovranno ripensare non solo i propri strumenti, ma i propri modelli operativi. La distinzione tra sviluppo, sicurezza e operations, già sfumata nel paradigma DevSecOps, potrebbe dissolversi ulteriormente in un continuum gestito dall’AI.

Una frase, volutamente provocatoria, sintetizza questo scenario: “Il software non verrà mangiato dall’AI; verrà riscritto da essa.” Non è una previsione, ma una direzione. E come tutte le direzioni strategiche, crea vincitori e vinti. Le aziende che sapranno integrare questi modelli come infrastruttura avranno un vantaggio competitivo difficilmente colmabile. Le altre rischiano di diventare fornitori di nicchia in un ecosistema dominato da pochi player.

Il caso Mythos dimostra anche un altro punto, meno discusso ma altrettanto rilevante: la convergenza tra AI e geopolitica. La recente disputa legale che ha coinvolto Pentagon e Anthropic, culminata in una decisione giudiziaria contro il tentativo di etichettare l’azienda come rischio per la sicurezza nazionale, evidenzia come questi modelli non siano più solo strumenti tecnologici ma asset strategici. La linea tra innovazione commerciale e infrastruttura critica si sta rapidamente assottigliando.

In questo contesto, parlare di AGI appare quasi prematuro, se non fuorviante. I benchmark più recenti suggeriscono che siamo ancora lontani da una vera intelligenza generale. Tuttavia, la rilevanza economica e operativa dei modelli attuali è già sufficiente a ridefinire interi settori. È un paradosso tipicamente tecnologico: non serve raggiungere l’obiettivo finale per cambiare le regole del gioco.

Il futuro immediato sarà probabilmente caratterizzato da una crescente tensione tra capacità e controllo. Le aziende continueranno a sviluppare modelli sempre più potenti, mentre governi e regolatori cercheranno di tenere il passo. Nel frattempo, il mercato farà ciò che sa fare meglio: anticipare, reagire, e talvolta esagerare.

Claude Mythos, al netto dell’hype e delle dichiarazioni ufficiali, rappresenta esattamente questo punto di equilibrio instabile. Non è la fine del software tradizionale, né l’inizio di una nuova era utopica. È, più semplicemente, un segnale. E come tutti i segnali, può essere ignorato, frainteso o utilizzato. La differenza, come sempre, la farà la capacità di leggere tra le righe, evitando sia l’entusiasmo ingenuo che il pessimismo sterile.

Nel frattempo, da qualche parte in Silicon Valley, un team di ingegneri sta già lavorando alla versione successiva. Probabilmente con un nome ancora più curioso. E con implicazioni ancora più difficili da spiegare nei comunicati stampa.

Fortune: https://fortune.com/2026/03/26/anthropic-leaked-unreleased-model-exclusive-event-security-issues-cybersecurity-unsecured-data-store/