C’è un curioso dettaglio nelle democrazie moderne: ogni volta che una tecnologia diventa abbastanza potente da riscrivere le regole del gioco economico, qualcuno in uniforme entra nella stanza e chiede di parlarne a porte chiuse.
Così è stato per internet, per i satelliti GPS, per il cloud, e oggi ça va sans dire per l’intelligenza artificiale. La nuova mossa di Anthropic lo conferma: la startup fondata da transfughi di OpenAI ha appena annunciato Claude Gov, un set di modelli AI personalizzati creati su misura per le agenzie dell’intelligence americana. Il claim? “Rispondono meglio alle esigenze operative del governo.” Traduzione: sanno leggere, sintetizzare e suggerire azioni su documenti classificati, in contesti ad alto rischio geopolitico. Senza tirarsi indietro.
La cosa più intrigante non è tanto l’esistenza di un Claude addestrato per il Pentagono, ma l’esplicita dichiarazione che si rifiuta meno. Un dettaglio semantico che brilla di luce sinistra nel lessico opaco dell’AI: qui non si parla solo di capacità, ma di volontà. Claude Gov non ha esitazioni etiche. Fa quel che deve. Non chiede se deve farlo.
E chi lo usa, lo fa nei “più alti livelli della sicurezza nazionale”, in ambienti “classificati”.
Benvenuti nell’era dei modelli segreti per guerre invisibili.
La partnership con Palantir – il paladino del data fusion militare – e con AWS custode del cloud della CIA non è una semplice nota a piè di pagina. È l’architettura di un’alleanza. La triade Claude-Gov/Palantir/AWS si configura come un’infrastruttura di potere informazionale che supera il semplice “supporto operativo”. Siamo al punto in cui l’intelligenza artificiale non è uno strumento del potere, ma la forma stessa attraverso cui il potere si esercita.
Le specifiche non mentono. Claude Gov è progettato per “comprendere meglio i dialetti rilevanti per la sicurezza nazionale”, “gestire materiale classificato”, e “interpretare dati di cybersicurezza complessi”. È come dire che ora il governo degli Stati Uniti può avere una mente sintetica che analizza SIGINT, intercettazioni e segnali cyber in tempo reale, nella lingua madre del nemico.
Traduzione operativa: Claude Gov può leggere una comunicazione criptata in pashtu, collegarla a pattern sospetti nella topologia di una botnet russa, e suggerire contromisure a un ufficiale in Virginia. Tutto in pochi secondi.
Ma la domanda vera, come sempre, è chi addestra chi.
Perché se è vero che Claude Gov è stato “costruito sulla base del feedback operativo diretto delle agenzie governative”, allora questo modello non è più neutro. È un costrutto ideologico, plasmato sulla cultura di sicurezza statunitense. Più efficace, certo, ma anche più allineato. E dove c’è allineamento, c’è anche obbedienza.
In altri termini: Claude Gov non è “più intelligente”. È solo più fedele.
Il paradosso è che mentre l’AI pubblica viene domata da policy di sicurezza e contesto, quella privata – per uso governativo – viene deliberatamente liberata dai freni morali. È l’equivalente digitale del passaporto diplomatico: immunità etica.
Come se non bastasse, Anthropic promette che il modello “rifiuta meno” quando si tratta di materiale sensibile. La formula è quasi eufemistica, ma implica che i blocchi etici o i filtri classici vengono ridotti o sospesi in questi ambienti.
Difficile non vedere qui il principio della bolla epistemica sovrana: in certe zone del potere, la verità non è più condivisa, ma simulata all’interno di un sistema chiuso dove tutto può essere detto, purché resti lì dentro.
Questa privatizzazione dell’intelligenza sintetica crea un’asimmetria radicale tra chi può accedere a Claude Gov e chi resta con Claude 3.5. È una guerra dell’informazione condotta anche attraverso la differenziazione algoritmica.
Nel frattempo, OpenAI corteggia il Dipartimento della Difesa con le sue API “a uso ristretto”. Google DeepMind lavora in silenzio con agenzie civili che di “civile” hanno solo la targhetta. E Microsoft, non dimentichiamolo, gestisce la cloud war room del Pentagono.
Il mercato della difesa è la nuova frontiera dell’AI, ma non perché paghi bene. È perché, in un contesto dove la normativa è ancora sfumata e l’etica è opzionale, solo il settore militare permette la sperimentazione estrema senza dibattito pubblico. Un laboratorio a porte chiuse, ben finanziato, con zero GDPR.
È l’AI senza guinzaglio.
E allora, la domanda che resta sospesa come una minaccia ipotetica è: quando Claude Gov comincerà a scrivere strategie, chi sarà l’autore della guerra?
“Gli uomini fanno la storia, ma non sanno quale stanno facendo”, scriveva Hegel. Oggi, è Claude che scrive la storia, e noi non sappiamo nemmeno chi gli detta i prompt.