La vicenda che coinvolge Dario Amodei, CEO di Anthropic, e il Dipartimento della Difesa degli Stati Uniti non è soltanto uno scontro tra una startup AI e un cliente governativo. È, più precisamente, una frattura geopolitica dentro la filiera dell’intelligenza artificiale occidentale. Nel giro di pochi giorni si è passati da una negoziazione tecnica a una guerra politica che minaccia di ridisegnare l’intero mercato dell’AI militare.
Il punto di rottura è semplice, quasi brutale. Il Pentagono pretende accesso completo ai modelli di Anthropic per “qualsiasi uso legale”. L’azienda risponde con due linee rosse che definiscono non negoziabili: niente sorveglianza di massa sui cittadini americani e niente armi autonome letali senza supervisione umana. La disputa è degenerata rapidamente, fino a quando il segretario alla Difesa Pete Hegseth ha deciso di etichettare Anthropic come “supply chain risk”, una classificazione normalmente riservata a imprese sospettate di legami con governi ostili.
Per un’azienda americana è un colpo quasi esistenziale. Significa che qualsiasi società che lavora con il Pentagono potrebbe essere costretta a interrompere i rapporti con Anthropic, pena la perdita dei contratti militari. Non è una minaccia teorica. Giganti come integratori software e contractor della difesa dovrebbero rimuovere il modello Claude dalle loro piattaforme se vogliono continuare a operare con il governo federale.
Nel frattempo la politica, come spesso accade, ha trasformato una disputa tecnologica in uno spettacolo pubblico. Hegseth ha accusato Amodei di mettere “a rischio la sicurezza nazionale”, mentre Amodei ha risposto definendo la mossa del Pentagono “punitiva e senza precedenti”.
Il risultato è un teatro strategico piuttosto surreale. Anthropic è stata, fino a pochi giorni fa, l’unica AI autorizzata a operare su reti classificate militari. Claude veniva usato in ambienti sensibili per analisi intelligence, cyber difesa e pianificazione operativa. Secondo varie ricostruzioni giornalistiche, il modello sarebbe stato persino utilizzato in operazioni militari reali, incluse missioni in Iran e Venezuela.
Qui emerge la vera ironia industriale della vicenda. La società che ha investito più capitale reputazionale sulla sicurezza dell’AI si ritrova accusata di essere una minaccia alla sicurezza nazionale.
Nel frattempo, mentre Anthropic discute di etica e guardrail, i concorrenti non stanno certo a guardare. Sam Altman e la sua OpenAI hanno rapidamente colto l’occasione firmando un accordo con il Pentagono che prevede accesso completo ai modelli per usi militari “legali”.
Altman stesso ha ammesso internamente che l’azienda non ha alcun controllo su come i militari useranno l’AI una volta firmato il contratto.
Un passaggio che merita attenzione. Silicon Valley ha passato dieci anni a discutere di AI alignment, safety, governance. Poi arriva un contratto militare e l’argomento diventa improvvisamente secondario.
Dentro questa disputa si intravede una frattura più profonda. Non riguarda soltanto le armi autonome o la sorveglianza. Riguarda il controllo politico sull’infrastruttura cognitiva della guerra.
Il Pentagono sostiene che nessun fornitore tecnologico può imporre limiti operativi alle forze armate. Secondo la logica militare, una volta acquistata una tecnologia lo Stato deve poterla usare per qualsiasi scopo legale. La posizione è coerente con la dottrina storica americana sulla difesa. Il problema è che i modelli di frontiera non sono missili o radar. Sono sistemi cognitivi generali.
In altre parole, stiamo parlando di macchine che possono analizzare intelligence, suggerire target, coordinare operazioni cyber, automatizzare decisioni tattiche. Imporre o rimuovere un singolo guardrail può cambiare radicalmente l’architettura morale di un sistema militare.
Non sorprende quindi che Amodei abbia tentato una riapertura negoziale con il Pentagono, incontrando il sottosegretario alla ricerca e ingegneria Emil Michael per cercare un nuovo accordo che permetta ai modelli Claude di restare nel circuito militare.
La situazione è delicata perché la designazione di “supply chain risk” non è solo una sanzione politica. È uno strumento sistemico. Se applicato in modo rigido può cancellare l’accesso di Anthropic a gran parte del mercato enterprise statunitense, dato che moltissime grandi aziende hanno relazioni con la difesa.
Un effetto domino perfettamente prevedibile. Quando la sicurezza nazionale entra nel settore tecnologico, il mercato smette di essere un mercato.
Il paradosso è che entrambe le parti hanno ragione, almeno dal loro punto di vista.
Il Pentagono teme che aziende private possano limitare l’uso di tecnologie critiche durante conflitti reali. In una guerra ad alta intensità, una clausola contrattuale scritta in California potrebbe teoricamente bloccare un sistema di targeting o un’analisi di intelligence.
Anthropic teme l’esatto opposto. Che modelli AI ancora imperfetti vengano usati per decisioni letali o per sorveglianza su larga scala senza adeguati controlli.
La tensione non è tecnica. È filosofica. Chi controlla l’AI quando entra nella sfera militare?
La risposta, storicamente, è sempre la stessa. Lo Stato.
Silicon Valley ha spesso coltivato l’illusione di poter dettare le regole morali della tecnologia che produce. Questa crisi dimostra quanto quell’illusione sia fragile quando la geopolitica entra in gioco.
Una volta che un modello AI diventa parte della macchina militare, smette di essere un prodotto software e diventa infrastruttura strategica.
Infrastruttura che i governi non lasceranno mai sotto il controllo di una startup, per quanto brillante o eticamente motivata.
Qualunque sia l’esito dei negoziati tra Anthropic e il Pentagono, una cosa appare già chiara. La guerra dell’intelligenza artificiale non sarà combattuta soltanto tra Stati. Sarà combattuta anche tra aziende che devono decidere quanto sono disposte a cedere del proprio controllo morale in cambio dell’accesso al più grande cliente tecnologico del pianeta: il complesso militare-industriale americano.