La vicenda che coinvolge Anthropic e il Dipartimento della Difesa degli Stati Uniti non è un semplice contenzioso amministrativo, bensì un cortocircuito strategico che espone tutte le ambiguità della politica americana sull’intelligenza artificiale militare. Da un lato un ordine presidenziale che impone alle agenzie civili di interrompere l’utilizzo dei prodotti dell’azienda; dall’altro una finestra di sei mesi concessa per dismettere gradualmente le operazioni con il Pentagono. Nel mezzo, un conflitto attivo con l’Iran che non attende le circolari federali.
Il risultato è un paradosso degno di un manuale di geopolitica digitale: mentre la Casa Bianca spinge verso il disaccoppiamento, i modelli di Anthropic vengono impiegati in decisioni di targeting nel contesto dello scontro tra Stati Uniti e Iran, in coordinamento con Israele. Il giorno successivo alla direttiva presidenziale, Washington e Tel Aviv hanno lanciato un attacco a sorpresa su Teheran, entrando in una fase di conflitto che ha reso impossibile una sospensione immediata delle tecnologie già integrate nei sistemi militari.
Secondo quanto riportato dal The Washington Post, i sistemi di Anthropic sono stati utilizzati insieme alla piattaforma Maven sviluppata da Palantir Technologies. Le funzioni attribuite non sono marginali: suggerimento di centinaia di obiettivi, generazione di coordinate precise, prioritizzazione dei target in base alla rilevanza strategica. La definizione utilizzata, “real-time targeting and target prioritization”, non lascia spazio a interpretazioni romantiche. Qui non si parla di chatbot da customer care, ma di algoritmi che contribuiscono a determinare chi viene colpito e quando.
Il quadro normativo è, per usare un eufemismo, incoerente. Donald Trump ha ordinato alle agenzie civili di cessare l’uso dei prodotti Anthropic, ma non esiste ancora una designazione formale di “supply-chain risk” da parte del Segretario alla Difesa Pete Hegseth. Senza tale classificazione, non vi sono barriere legali immediate all’impiego dei modelli nel teatro operativo. Il sistema rimane tecnicamente utilizzabile, anche se politicamente sospetto.
Questa ambiguità genera un doppio movimento di mercato. Mentre l’esercito continua a usare le soluzioni integrate, numerosi contractor della difesa stanno rapidamente sostituendo i modelli di Anthropic con alternative concorrenti. Lockheed Martin ha iniziato a rimpiazzare i sistemi questa settimana, secondo fonti Reuters. Fondi di venture capital come J2 Ventures riferiscono che diverse società in portafoglio hanno già avviato la migrazione da Claude verso altri fornitori. Il messaggio è chiaro: nessuna azienda vuole trovarsi esposta a una potenziale interdizione governativa improvvisa.
La keyword centrale di questa storia è intelligenza artificiale militare. Attorno ad essa orbitano concetti come supply chain risk, targeting algoritmico, dual use, regolamentazione AI. Un grande laboratorio di AI si trova simultaneamente dentro e fuori l’ecosistema militare, utilizzato in un conflitto attivo mentre viene progressivamente escluso dalla filiera industriale della difesa.
Il caso Anthropic evidenzia una tensione strutturale tra sicurezza nazionale e governance tecnologica. Gli Stati Uniti hanno costruito negli ultimi anni una strategia di superiorità algoritmica che si fonda sull’integrazione tra big tech, startup AI e apparato militare. Il progetto Maven, nato per analizzare immagini di droni e migliorare l’identificazione dei bersagli, rappresenta l’emblema di questa convergenza. Se un attore chiave viene improvvisamente considerato un rischio di filiera, l’intero equilibrio si incrina.
Un aspetto poco discusso riguarda la responsabilità legale e morale del modello. Se un sistema suggerisce un target che poi si rivela errato, la catena di accountability è opaca. Il Dipartimento della Difesa può sostenere che la decisione finale rimane umana. L’azienda può affermare di fornire solo uno strumento general purpose. Nel frattempo, l’algoritmo influenza priorità operative in tempo reale. La distinzione tra supporto decisionale e decisione effettiva diventa, sul campo, una sottigliezza semantica.
La designazione di supply-chain risk, qualora venisse formalizzata, aprirebbe probabilmente un contenzioso legale significativo. Anthropic potrebbe contestare la misura sostenendo l’assenza di prove concrete di rischio. Il governo, dal canto suo, potrebbe invocare poteri discrezionali legati alla sicurezza nazionale. Una simile battaglia giudiziaria non sarebbe solo tecnica, ma simbolica. Determinerebbe il grado di autonomia delle aziende AI rispetto all’apparato militare e la capacità dello Stato di ridefinire ex post le regole del gioco.
Nel frattempo, il mercato si muove con pragmatismo. I contractor non attendono la sentenza. Sostituire un modello linguistico in un’infrastruttura militare non è un’operazione banale, ma l’incertezza regolatoria è percepita come un rischio maggiore. In un ecosistema dove la continuità operativa è vitale, la prevedibilità normativa conta quanto la performance tecnica.
La questione, osservata da una prospettiva più ampia, riguarda la natura stessa dell’intelligenza artificiale militare nel XXI secolo. Non siamo più nell’era delle piattaforme proprietarie sviluppate esclusivamente all’interno del complesso militare-industriale. I modelli sono addestrati su infrastrutture cloud commerciali, migliorati grazie a feedback provenienti da mercati civili, e poi riadattati a contesti bellici. Il confine tra applicazione civile e militare si assottiglia fino a diventare quasi invisibile.
La guerra algoritmica non è soltanto una metafora giornalistica. È un cambiamento di paradigma in cui la velocità di elaborazione e la capacità predittiva diventano fattori strategici al pari dei missili e dei caccia. Se un modello è in grado di suggerire centinaia di target in pochi secondi, la pressione sul decisore umano aumenta. L’overload informativo si trasforma in dipendenza dall’algoritmo.
Il caso Anthropic potrebbe rappresentare un precedente. Se un laboratorio AI può essere contemporaneamente impiegato in un conflitto e rimosso dalla supply chain militare, significa che la governance dell’AI è ancora in fase di sperimentazione. Le direttive presidenziali, le classificazioni di rischio, le sostituzioni rapide da parte dei contractor, tutto questo compone un mosaico instabile.
Per chi osserva da una prospettiva europea, la lezione è evidente. L’autonomia strategica in ambito AI non è un concetto accademico. È una questione di sovranità tecnologica. Quando un singolo atto politico può ridefinire in poche ore l’accesso a modelli critici per la difesa, la dipendenza da fornitori esterni diventa un fattore di vulnerabilità.
La vicenda solleva infine una domanda che va oltre il caso specifico. Qual è il limite accettabile dell’automazione nelle decisioni di targeting? La tecnologia procede più rapidamente della riflessione etica e normativa. Le piattaforme vengono integrate nei sistemi militari perché offrono vantaggi operativi concreti. Le discussioni sulla responsabilità e sul controllo umano seguono, spesso con qualche anno di ritardo.
Anthropic si trova dunque in una posizione scomoda, sospesa tra utilizzo operativo e progressivo isolamento industriale. Una delle principali AI lab al mondo viene gradualmente esclusa dal circuito della difesa, mentre i suoi modelli continuano a operare in un conflitto attivo. È un’immagine potente del nostro tempo: l’intelligenza artificiale non attende che la burocrazia si allinei. Corre, si integra, influenza. Poi, solo dopo, arriva la politica a tentare di inseguirla.