Nella storia delle tecnologie strategiche esiste sempre un momento in cui il dibattito smette di essere accademico e diventa istituzionale. Quel momento, per l’intelligenza artificiale, sembra essere arrivato quando Anthropic ha deciso di portare il governo degli Stati Uniti davanti a un tribunale federale. Non per una questione commerciale. Non per un contratto. Ma per qualcosa di molto più delicato: il diritto di rifiutarsi di costruire strumenti di sorveglianza di massa e armi autonome.

Il caso, depositato presso la United States District Court for the Northern District of California, ha una dimensione che va oltre il diritto amministrativo. Riguarda il rapporto tra Stato e tecnologia quando quest’ultima diventa infrastruttura strategica. In altre parole, quando il software diventa geopolitica.

L’amministrazione guidata da Donald Trump ha inserito Anthropic in una blacklist federale dopo che il CEO della società, Dario Amodei, ha rifiutato di rimuovere due specifici limiti imposti al modello Claude. Il primo vieta l’utilizzo dell’AI per la sorveglianza domestica di massa negli Stati Uniti. Il secondo proibisce l’impiego in sistemi d’arma completamente autonomi. Due clausole che, fino a pochi anni fa, sarebbero sembrate banali linee guida etiche. Nel 2026 sono diventate una questione di sicurezza nazionale.

La risposta del governo è stata sorprendentemente aggressiva. Il presidente ha ordinato alle agenzie federali di interrompere l’uso delle tecnologie di Anthropic, definendo l’azienda un rischio per la supply chain tecnologica nazionale. Nel linguaggio burocratico di Washington, questa definizione è solitamente riservata a software proveniente da paesi ostili o potenzialmente infiltrato da malware statali. La stessa etichetta è stata usata in passato per aziende tecnologiche cinesi, non per startup della Silicon Valley.

La lista dei funzionari citati nella causa ha il peso di una crisi diplomatica: il segretario alla Difesa Pete Hegseth, il segretario al Tesoro Scott Bessent e il segretario di Stato Marco Rubio. Non è esattamente il tipo di contenzioso che una startup tecnologica affronta con leggerezza.

L’episodio rivela qualcosa che molti osservatori del settore avevano intuito da tempo ma che pochi erano disposti a dire apertamente. L’intelligenza artificiale non è più solo un mercato. È una tecnologia dual use con implicazioni militari, politiche e costituzionali.

Nel ventesimo secolo il controllo delle tecnologie strategiche riguardava l’uranio, i missili balistici o i satelliti. Nel ventunesimo secolo riguarda i modelli linguistici.

Il paradosso della vicenda è quasi grottesco. Anthropic, prima della rottura con il Pentagono, aveva firmato un contratto da circa 200 milioni di dollari con il Dipartimento della Difesa. Non si trattava di una startup pacifista barricata in qualche laboratorio universitario. Era un fornitore ufficiale del governo americano.

La frattura è avvenuta quando i funzionari del Pentagono hanno chiesto ai fornitori di AI una clausola radicale: consentire l’utilizzo dei modelli per “qualsiasi uso legale”, comprese applicazioni militari non specificate. Anthropic ha accettato quasi tutto, tranne due linee rosse. Sorveglianza domestica di massa. Armi completamente autonome.

Per chi conosce la storia della tecnologia militare, la richiesta del Pentagono non è sorprendente. La stessa dinamica si è ripetuta negli anni quaranta con il progetto Manhattan, negli anni sessanta con ARPANET e negli anni novanta con la crittografia forte.

Lo Stato tende a voler accedere senza restrizioni alle tecnologie strategiche. Le aziende tecnologiche, quando diventano abbastanza grandi da avere potere negoziale, iniziano improvvisamente a ricordarsi di avere principi.

Nel caso dell’intelligenza artificiale la questione è particolarmente delicata perché la linea tra software civile e militare è estremamente sottile. Un modello linguistico capace di analizzare documenti può essere usato per ottimizzare il customer service di una banca oppure per analizzare intelligence militare e selezionare obiettivi.

Ed è esattamente ciò che è successo.

Secondo alcune informazioni emerse nel dibattito pubblico, il modello Claude sarebbe stato comunque utilizzato in operazioni militari del U.S. Central Command durante operazioni contro l’Iran, contribuendo all’analisi di dati di intelligence e all’identificazione di obiettivi. Una situazione che rasenta l’assurdo giuridico. Il software è considerato un rischio per la sicurezza nazionale ma allo stesso tempo continua a essere utilizzato nelle operazioni militari.

Una contraddizione che ricorda un vecchio principio della burocrazia statale: quando la sicurezza nazionale è invocata, la coerenza diventa opzionale.

Alcuni osservatori del settore AI hanno reagito con scetticismo alla decisione del governo. Tra questi Ben Goertzel, fondatore di SingularityNET, che ha fatto notare come la logica della blacklist sia difficile da comprendere.

La definizione di “supply chain risk” implica solitamente la possibilità che un software contenga spyware o vulnerabilità deliberate inserite da governi ostili. Nel caso di Anthropic il problema non è tecnico ma politico: l’azienda non vuole che il proprio modello venga usato per sorveglianza di massa o sistemi d’arma autonomi.

In altre parole, il rischio per la sicurezza nazionale consiste nel fatto che un’azienda privata ha deciso di mantenere alcune limitazioni etiche.

La vicenda solleva una questione costituzionale non banale. Negli Stati Uniti la libertà di espressione è protetta dal Primo Emendamento. Gli avvocati di Anthropic sostengono che la decisione del governo rappresenti una forma di ritorsione politica contro le dichiarazioni pubbliche di Amodei.

Una tesi che potrebbe avere conseguenze significative se venisse accolta dai tribunali. Se un governo può punire economicamente una società per le sue posizioni etiche o politiche, il precedente sarebbe enorme.

La questione è stata sottolineata anche da Jennifer Huddleston del Cato Institute, secondo cui il caso evidenzia il rischio che il concetto di sicurezza nazionale venga utilizzato per aggirare le garanzie costituzionali.

Nel frattempo, sul piano tecnologico, la disputa potrebbe avere un impatto sorprendentemente limitato. Il mercato dei modelli linguistici avanzati è ormai dominato da pochi attori con capacità comparabili.

OpenAI, Google con il modello Gemini, e naturalmente lo stesso Claude di Anthropic rappresentano sistemi con prestazioni simili su molte applicazioni.

Come ha osservato Goertzel con un certo realismo, per il governo americano la differenza tra Claude, ChatGPT e Gemini potrebbe essere più politica che tecnica. Se un modello non è disponibile, ne esistono altri con capacità analoghe.

L’intelligence militare, protetta dal segreto di Stato, continuerà comunque a utilizzare AI avanzate per analizzare dati e prendere decisioni operative. La tecnologia non sparisce perché una startup viene inserita in una blacklist.

Il punto cruciale non è tecnico. È culturale.

Negli ultimi quindici anni la Silicon Valley ha costruito la propria narrativa sull’idea che le aziende tecnologiche potessero guidare l’innovazione globale mantenendo una certa autonomia morale rispetto ai governi. Una versione moderna del mito libertario della California.

La realtà geopolitica sta lentamente demolendo questa illusione.

Quando una tecnologia diventa strategica, lo Stato interviene. Sempre. È successo con il nucleare, con lo spazio, con internet e ora con l’intelligenza artificiale.

Il caso Anthropic potrebbe rappresentare uno dei primi veri scontri istituzionali della nuova era dell’AI geopolitica.

Un episodio che ricorda vagamente un aneddoto storico del settore tecnologico. Negli anni settanta, quando il governo americano cercò di limitare l’esportazione di algoritmi di crittografia avanzata, molti ricercatori universitari protestarono sostenendo che il software fosse una forma di espressione matematica e quindi protetta dal Primo Emendamento.

La battaglia legale durò anni e cambiò profondamente il rapporto tra crittografia e politica.

Oggi la stessa domanda ritorna in forma diversa. Un modello di intelligenza artificiale è semplicemente software commerciale oppure è una tecnologia strategica che lo Stato può controllare?

La risposta a questa domanda definirà il prossimo decennio dell’economia digitale.

Silicon Valley ama raccontarsi come una repubblica indipendente governata da ingegneri visionari. La storia, con una certa ironia, continua a ricordare che le repubbliche indipendenti tendono a esistere solo finché Washington lo permette.