Donald Trump ordina lo stop all’uso di Anthropic in tutte le agenzie federali e l’intelligenza artificiale entra ufficialmente nel cuore della battaglia politica americana. La direttiva, annunciata sul suo social, Truth, con toni tutt’altro che diplomatici, prevede un phase out di sei mesi per il Pentagono e altre strutture governative. Una finestra temporale che lascia spazio a negoziati, ma che apre anche un fronte molto delicato per la sicurezza nazionale.
Al centro dello scontro c’è Anthropic, la società fondata e guidata da Dario Amodei, sviluppatrice del modello Claude, uno dei sistemi di intelligenza artificiale più avanzati oggi disponibili. L’azienda si è rifiutata di accettare le condizioni richieste dal Dipartimento della Difesa sull’utilizzo del proprio modello, in particolare per quanto riguarda possibili impieghi in ambiti come la sorveglianza di massa o il comando di sistemi d’arma autonomi.
Il presidente ha reagito con parole durissime, definendo Anthropic una società radicale e accusandola di voler imporre condizioni al Pentagono. Dietro la retorica, tuttavia, si intravede un nodo strategico molto più serio: chi decide come e fino a dove può essere usata l’AI militare negli Stati Uniti.
Il Dipartimento della Difesa o, meglio, della Guerra, come Trump ha voluto che fosse rinominato, guidato dal segretario Pete Hegseth, rivendica il principio secondo cui qualsiasi tecnologia acquistata deve poter essere utilizzata liberamente, purché nel rispetto della legge. Anthropic, dal canto suo, sostiene che alcune applicazioni superano le soglie di sicurezza tecnica e di tutela democratica. In un comunicato, Amodei ha chiarito che esistono casi in cui l’intelligenza artificiale può minare, anziché difendere, i valori democratici.

Lo scontro ha assunto rapidamente una dimensione politica. Il senatore Mark Warner, vicepresidente democratico della Commissione Intelligence del Senato, ha accusato Trump di mettere a rischio la prontezza operativa per ragioni ideologiche, mentre all’interno della Silicon Valley alcuni dipendenti di aziende tech, come OpenAI e Google, hanno firmato lettere di sostegno ad Anthropic, criticando le modalità negoziali del Pentagono.
Il problema, però, non è solo simbolico. Claude è già utilizzato per attività di analisi dell’intelligence. Analisti della NSA, la National Security Agency lo impiegano per esaminare intercettazioni e comunicazioni estere, mentre la CIA lo utilizza come supporto per l’individuazione di pattern nei report informativi. Spegnere questi strumenti quindi non significa semplicemente cambiare software, ma rallentare flussi operativi in contesti dove il tempo è una variabile critica.
Sembrerebbe che il Pentagono, da parte sua, sarebbe pronto a rafforzare la collaborazione con Grok, il modello sviluppato da xAI, la società di Elon Musk anche se, secondo alcune fonti governative, riportate in un recente articolo del NYT, Grok viene considerato meno performante rispetto a Claude. Una transizione forzata comporterebbe quindi inevitabili frizioni tecniche e operative, oltre a possibili vulnerabilità temporanee, particolarmente critiche in questo momento, con il precipitare della situazione in Medio Oriente tra Usa e Israele da un lato e Iran dall’altro.
Sul tavolo restano comunuque opzioni più drastiche. Il Dipartimento della Difesa ha ventilato anche la possibilità di dichiarare Anthropic un rischio per la supply chain o di invocare il Defense Production Act per ottenere l’accesso al modello senza restrizioni, anche se, una mossa del genere aprirebbe quasi certamente un contenzioso legale di ampia portata, con implicazioni costituzionali e industriali.
La vicenda, nel suo complesso, mette in luce una tensione strutturale nell’era dell’intelligenza artificiale: il rapporto tra innovazione privata e sovranità statale. Le aziende tecnologiche sviluppano modelli sempre più potenti, ma quando questi diventano strumenti chiave per la difesa nazionale, il confine tra autonomia imprenditoriale e interesse pubblico si assottiglia.
Trump ha scelto la linea dura, trasformando una disputa contrattuale in un caso politico. Resta da capire se la decisione sarà definitiva o se i sei mesi di transizione serviranno a trovare un compromesso. Nel frattempo, l’episodio segnala un passaggio cruciale: l’AI non è più soltanto una questione di mercato o di ricerca, ma un asset strategico al centro delle dinamiche di potere.
Quello che appare chiaro è che nel nuovo equilibrio tra Casa Bianca, Pentagono e Big Tech, la partita non riguarda soltanto quale modello sia più efficiente. Riguarda chi controlla l’algoritmo quando l’algoritmo diventa un elemento della sicurezza nazionale. E in un’epoca in cui software e geopolitica viaggiano alla stessa velocità, la risposta non può essere liquidata con un post sui social.
.
Per approfondire: Anthropic contro il Pentagono: AI militare, sorveglianza di massa e il confine sottile tra difesa e democrazia