La partita tra intelligenza artificiale e difesa americana non conosce pause. Dopo il braccio di ferro tra il Anthropic e il Pentagono, culminato con lo stop imposto dall’amministrazione di Donald Trump all’uso dei suoi sistemi nelle agenzie federali, la scena è stata rapidamente occupata da un altro protagonista. OpenAI ha annunciato un accordo con il Dipartimento della Difesa per fornire le proprie tecnologie di intelligenza artificiale anche su sistemi classificati.
La mossa ha il sapore del colpo da maestro, sia sul piano industriale sia su quello politico. Mentre Anthropic veniva etichettata come rischio per la supply chain della sicurezza nazionale, OpenAI ha trovato un’intesa che consente al Pentagono di utilizzare i suoi modelli per qualsiasi scopo lecito, introducendo al tempo stesso salvaguardie tecniche per impedire impieghi che l’azienda considera inaccettabili, come la sorveglianza domestica di massa o l’uso diretto in armi autonome letali.
Sam Altman, amministratore delegato di OpenAI, ha parlato di collaborazione improntata al rispetto della sicurezza, sottolineando l’intenzione di installare barriere tecnologiche capaci di vincolare l’uso dei modelli anche in contesti sensibili. Un equilibrio sottile, quasi acrobatico, tra l’adesione alle richieste del Pentagono e la tutela di principi etici che l’azienda rivendica come fondativi.
Il confronto con Anthropic è inevitabile. La società guidata da Dario Amodei aveva rifiutato condizioni contrattuali che lasciassero al Dipartimento della Difesa piena libertà di utilizzo del modello Claude, temendo derive verso applicazioni incompatibili con i propri standard di sicurezza. Il Pentagono, dal canto suo, aveva ribadito un principio semplice: chi fornisce tecnologia al governo non può decidere in autonomia come essa venga impiegata, purché nel rispetto della legge. Il risultato è stato uno scontro pubblico, politico e mediatico, concluso con la rottura.
In questo contesto, OpenAI ha scelto una via diversa. Accettare l’uso per ogni finalità legale e inserire nei sistemi meccanismi tecnici che impediscano determinati comportamenti. Una differenza non solo giuridica ma architetturale. L’idea è che la governance dell’AI possa essere codificata direttamente nel modello, non solo scritta nelle clausole contrattuali.
L’accordo rappresenta anche un capitolo della rivalità personale e industriale tra Altman e Amodei, ex colleghi poi separatisi nel 2021 su visioni divergenti riguardo finanziamento, rilascio e controllo dell’intelligenza artificiale. In un settore dove la sicurezza nazionale incrocia miliardi di dollari e geopolitica, le differenze filosofiche diventano rapidamente vantaggi competitivi o vulnerabilità strategiche.
Sul piano operativo, la piena integrazione delle tecnologie OpenAI nei sistemi classificati richiederà tempo. L’azienda non è ancora del tutto abilitata per ambienti ad alta classificazione e dovrà passare attraverso i tradizionali canali infrastrutturali del governo, spesso legati a fornitori cloud come Amazon, che proprio nelle stesse ore ha rafforzato la partnership con OpenAI. Un intreccio industriale che conferma come la nuova corsa agli armamenti sia fatta più di server che di acciaio.
Il Pentagono, nel frattempo, amplia il proprio ventaglio di fornitori. Restano in campo attori come Google e xAI di Elon Musk, a dimostrazione che la strategia americana punta a evitare dipendenze eccessive da un singolo player. La lezione del caso Anthropic sembra chiara: nella difesa, la pluralità è una forma di resilienza.
D’altra parte, l’intelligenza artificiale è ormai uno strumento centrale per l’analisi dell’intelligence, dalla selezione di segnali nei flussi di comunicazioni estere fino alla ricerca di pattern in grandi volumi di dati classificati. Sostituire un modello con un altro non è un semplice aggiornamento software: significa ricalibrare processi, addestramenti interni e catene decisionali. Ogni scelta tecnologica si traduce quindi in un impatto operativo concreto.
Dal punto di vista della cybersecurity, l’accordo con OpenAI solleva anche interrogativi su come verranno verificati e certificati i cosiddetti guardrail tecnici. Chi controlla che funzionino davvero? Come si gestisce l’audit di modelli complessi in ambienti classificati? La sicurezza, in questo scenario, non è solo protezione da attacchi esterni ma controllo interno degli strumenti stessi.
La vicenda segna peraltro un passaggio cruciale nella relazione tra Big Tech e apparato militare statunitense. Dopo anni di tensioni ideologiche e proteste interne nelle aziende, l’AI entra definitivamente nella dottrina operativa della difesa americana, con un paradosso evidente: le aziende che predicano prudenza e limiti sono oggi chiamate a fornire le tecnologie più potenti al settore che più di ogni altro incarna l’uso strategico del potere.
Se l’episodio Anthropic ha mostrato quanto fragile possa essere l’equilibrio tra etica e sicurezza nazionale, l’intesa con OpenAI dimostra che la partita non si gioca solo sul terreno delle dichiarazioni pubbliche ma su quello, molto più tecnico, dell’architettura dei sistemi.