Anthropic vs Pentagono non è solo uno scontro contrattuale, è un crash test istituzionale sul futuro dell’AI militare e sulla tenuta dei principi democratici nell’era dei modelli di frontiera. Meno di ventiquattro ore prima della scadenza di un ultimatum attribuito al Dipartimento della Difesa statunitense, Anthropic ha rifiutato di concedere accesso illimitato ai propri sistemi di intelligenza artificiale. Una scelta che, nel lessico diplomatico, suona come una dichiarazione di indipendenza; nel lessico industriale, come una scommessa ad alto rischio sulla propria supply chain governativa.

Il confronto si è cristallizzato attorno a due linee rosse che l’azienda non intende superare: niente sorveglianza di massa sui cittadini americani e niente armi autonome letali prive di supervisione umana. Dall’altra parte, il Dipartimento della Difesa degli Stati Uniti, guidato dal segretario alla Difesa Pete Hegseth, avrebbe chiesto la rinegoziazione dei contratti con i principali laboratori di AI, puntando a condizioni più ampie e meno vincolate. In questo scacchiere, secondo indiscrezioni, OpenAI e xAI avrebbero già accettato i nuovi termini, lasciando Anthropic isolata nel ruolo di dissidente istituzionale.

Il CEO Dario Amodei, convocato alla Casa Bianca per un confronto diretto, ha scelto una linea comunicativa chirurgica. Ha ribadito di credere nell’importanza esistenziale dell’uso dell’intelligenza artificiale per difendere le democrazie e contrastare le autocrazie, sottolineando come l’azienda abbia già collaborato con il cosiddetto Department of War e con la comunità di intelligence. La retorica è calibrata: patriottica quanto basta per non apparire ideologica, prudente quanto serve per non cedere terreno sui principi.

La questione centrale, tuttavia, non è semantica ma tecnica. L’AI militare oggi si muove su una frontiera fragile, dove la distinzione tra sistemi di supporto decisionale e armi autonome letali non è solo giuridica ma architetturale. Un modello linguistico di frontiera, come Claude, può assistere nell’analisi di intelligence, nella pianificazione logistica, nella simulazione di scenari. Ma quando si passa alla catena di ingaggio, alla selezione automatica dei target, alla decisione di fuoco senza human-in-the-loop, la soglia cambia natura. Non è più ottimizzazione, è delega sovrana.

Amodei ha ammesso che le armi parzialmente autonome sono già vitali per la difesa delle democrazie e che, in futuro, anche sistemi pienamente autonomi potrebbero rivelarsi critici per la sicurezza nazionale. La sua obiezione non è filosofica, è ingegneristica. I sistemi di frontiera non sono ancora sufficientemente affidabili per sostenere un’autonomia totale in contesti letali. In altre parole, il problema non è solo cosa si vuole fare, ma cosa i modelli possono realmente garantire in termini di robustezza, interpretabilità, controllo degli errori e resistenza agli attacchi avversari.

Sul tavolo, però, non c’è solo la discussione sulle armi autonome. Il nodo della sorveglianza di massa è ancora più delicato. L’uso di modelli generativi per analizzare flussi massivi di dati domestici, intercettazioni, metadata, comunicazioni digitali, apre scenari che ricordano più un romanzo distopico che una policy pubblica. La tecnologia rende possibile una granularità di analisi senza precedenti; la tentazione di utilizzarla, in nome della sicurezza, è proporzionale alla sua potenza. Il punto è stabilire dove finisce la difesa e dove inizia l’erosione sistematica delle libertà civili.

Il Pentagono, secondo le ricostruzioni, avrebbe chiesto ai principali contractor della difesa di valutare la propria dipendenza da Claude, primo passo verso una possibile designazione di Anthropic come rischio per la supply chain. Una classificazione che, nel linguaggio della sicurezza nazionale, equivale a un marchio di inaffidabilità strategica. Si sarebbe persino ventilata l’ipotesi di invocare il Defense Production Act per forzare la compliance. Quando la politica industriale incontra la sicurezza nazionale, la linea di separazione tra mercato e comando amministrativo diventa sottile.

In questo contesto, la keyword AI militare assume un significato che va oltre il dibattito accademico. Non si tratta solo di etica dell’intelligenza artificiale, ma di governance dei modelli di frontiera in un mondo multipolare. Le democrazie occidentali competono con regimi che non hanno vincoli comparabili su sorveglianza o automazione letale. Rinunciare a certe applicazioni può sembrare un atto di virtù; può anche essere percepito come un handicap strategico. Il dilemma è antico quanto la politica: fino a che punto i valori possono sopravvivere se non sono difesi, e fino a che punto la loro difesa li snatura.

Dal punto di vista di un CEO tecnologico, la posizione di Anthropic è una mossa ad altissimo beta reputazionale. Se il Pentagono decidesse di disimpegnarsi, l’azienda perderebbe contratti, influenza e accesso privilegiato a use case ad alta intensità di capitale. Se invece riuscisse a mantenere le proprie condizioni, stabilirebbe un precedente globale su come i laboratori di AI possono negoziare con lo Stato, persino con il più potente apparato militare del pianeta. La differenza tra idealismo e strategia, in questi casi, è spesso solo questione di timing.

OpenAI e xAI, ammesso che abbiano accettato i nuovi termini, giocano una partita diversa. Accedere a contratti militari più ampi significa scalare rapidamente infrastrutture, dataset, test operativi in ambienti reali. Significa anche assumersi un’esposizione politica significativa. Il mercato dell’intelligenza artificiale per la difesa è destinato a crescere in modo esponenziale, spinto da budget pubblici che raramente conoscono recessioni. La domanda non è se l’AI entrerà nei sistemi d’arma, ma con quali guardrail e sotto quale regime di responsabilità.

Il tema delle armi autonome letali, o lethal autonomous weapons systems, è oggetto di dibattito da anni nelle sedi internazionali, ma la maturità dei modelli generativi cambia la scala del problema. Non parliamo più solo di droni pre-programmati o di sistemi di difesa antimissile automatizzati, bensì di piattaforme capaci di integrare dati multimodali, ragionare su scenari complessi, adattarsi in tempo reale. Se l’errore di un algoritmo finanziario brucia miliardi, quello di un algoritmo militare può bruciare vite e, in casi estremi, innescare escalation non previste.

Anthropic, nel dichiarare che le minacce non cambiano la propria posizione, ha scelto di collocarsi su un crinale sottile tra cooperazione e resistenza. Ha offerto una transizione ordinata verso altri provider qualora il Dipartimento decidesse di disimpegnarsi, segnalando che la continuità operativa militare non sarebbe compromessa. È una mossa elegante, quasi machiavellica: non blocca la macchina della difesa, ma rifiuta di esserne l’ingranaggio a qualsiasi costo.

Per chi osserva dall’Europa, il caso solleva interrogativi inevitabili. La regolamentazione dell’AI, dal dibattito sull’AI Act alle discussioni su standard internazionali, appare spesso teorica rispetto alla brutalità delle scelte concrete che emergono quando la sicurezza nazionale entra in gioco. La governance dell’intelligenza artificiale non si decide solo nei parlamenti, ma nei boardroom e nelle stanze del potere esecutivo, dove ultimatum e contratti si intrecciano con valutazioni tecniche su affidabilità e rischio.

La storia di anthropic pentagono potrebbe essere ricordata come il momento in cui un laboratorio di frontiera ha provato a fissare limiti etici nel dialogo con l’apparato militare più potente al mondo. Oppure come un episodio transitorio, destinato a dissolversi man mano che la tecnologia diventa più affidabile e le pressioni geopolitiche aumentano. In entrambi i casi, la traiettoria è chiara: l’AI militare non è un’ipotesi futura, è una realtà in costruzione. La vera domanda non è se verrà usata, ma chi definirà le condizioni del suo impiego, e con quale legittimazione democratica.

.

Clicca qui per leggere la dichiarazione integrale di Dario Amodei sulle discussioni in corso con il Dipartimento della Guerra degli Stati Uniti