Quando il CEO di OpenAI, Sam Altman, ammette pubblicamente che l’accordo con il Dipartimento della Difesa è stato “decisamente affrettato” e che “l’ottica non è delle migliori”, non sta facendo un esercizio di umiltà. Sta tentando di controllare la narrativa. E quando la narrativa diventa più importante del contratto, significa che siamo entrati in territorio strategico.

Il contesto è noto. Dopo il fallimento delle negoziazioni tra Anthropic e il Pentagono, il presidente Donald Trump ha ordinato alle agenzie federali di interrompere l’uso della tecnologia di Anthropic entro sei mesi. Il Segretario alla Difesa Pete Hegseth ha classificato l’azienda come rischio per la supply chain. Linguaggio da guerra fredda digitale.

A quel punto OpenAI entra in scena e chiude un accordo per l’uso dei propri modelli in ambienti classificati. Tempismo chirurgico. Opportunismo strategico. O, come direbbe un investitore meno romantico, execution.

La questione centrale non è se OpenAI abbia dichiarato linee rosse contro la sorveglianza domestica di massa, i sistemi d’arma completamente autonomi e le decisioni automatizzate ad alto impatto, come i sistemi di social credit. La questione è se tali linee rosse siano tecnicamente enforceable, oppure siano policy di facciata in un ecosistema dove l’API è solo l’ultimo anello di una catena molto più lunga.

Nel blog ufficiale, OpenAI sostiene di adottare un approccio multilivello alla sicurezza: controllo dello stack, deployment via cloud, personale autorizzato “in the loop”, protezioni contrattuali robuste. A prima vista, suona rassicurante. Da CTO, tuttavia, la domanda è inevitabile: chi controlla davvero l’integrazione a valle? Un modello rilasciato via cloud può essere orchestrato in sistemi complessi, combinato con dati esterni, collegato a piattaforme operative. L’architettura conta, certo, ma l’architettura non è impermeabile alla creatività militare.

Il nodo della sorveglianza di massa è emblematico. Il contratto fa riferimento alla conformità con l’Executive Order 12333, uno strumento giuridico che disciplina le attività di intelligence all’estero. I critici sostengono che tale ordine consenta la raccolta di comunicazioni intercettate fuori dagli Stati Uniti, anche quando coinvolgono cittadini americani. Non è una questione di cavilli legali, è una questione di giurisdizione algoritmica. Se l’AI analizza dati raccolti legalmente ma in modo massivo, il confine tra sicurezza e sorveglianza diventa una sfumatura semantica.

Katrina Mulligan, responsabile delle partnership di sicurezza nazionale di OpenAI, ha sostenuto che il dibattito pubblico sopravvaluta il peso di una singola clausola contrattuale. Ha ragione, in parte. Le policy sono solo una componente. Tuttavia, in un’epoca in cui i modelli linguistici diventano infrastruttura critica, il contratto non è un dettaglio. È l’equivalente digitale di un trattato.

La vera domanda, che pochi pongono apertamente, è perché OpenAI sia riuscita a chiudere l’accordo mentre Anthropic no. Entrambe dichiarano linee rosse su armi autonome e sorveglianza. Entrambe parlano di AI responsabile. La differenza non è nel lessico, ma nella postura. Anthropic ha costruito la propria brand identity attorno alla safety by design, quasi come una missione etica. OpenAI, pur parlando di sicurezza, ha sempre mantenuto una traiettoria più pragmatica, più orientata alla scalabilità e all’adozione mainstream.

Il risultato è che, nel momento in cui il Dipartimento della Difesa cerca continuità operativa e affidabilità contrattuale, OpenAI appare più flessibile. Non necessariamente meno sicura, ma certamente più incline al compromesso. In geopolitica tecnologica, la differenza tra principio e compromesso è spesso la differenza tra essere al tavolo o nel comunicato stampa.

Altman, su X, ha dichiarato che l’obiettivo era “de-escalare” il conflitto tra il Dipartimento della Difesa e l’industria. È una frase interessante. De-escalare cosa, esattamente? Un conflitto regolatorio? Una frizione reputazionale? Oppure la possibilità che il governo federale sviluppi o adotti soluzioni alternative, magari meno trasparenti?

Il rischio sistemico è evidente. Se le aziende AI più avanzate si tirano indietro per ragioni etiche, lo spazio viene occupato da attori meno scrupolosi, domestici o stranieri. In un mondo in cui la competizione tecnologica con la Cina è una variabile strutturale, la tentazione di collaborare con il complesso militare-industriale diventa quasi inevitabile. La sicurezza nazionale è l’argomento definitivo. Chi osa opporsi, viene accusato di ingenuità.

Sul piano strategico, l’accordo OpenAI Pentagono ridefinisce il concetto di AI militare. Non si parla più solo di droni autonomi o sistemi di targeting, ma di supporto decisionale, analisi di intelligence, simulazioni di scenario. In altre parole, di intelligenza aumentata applicata alla guerra. Il che solleva una questione ancora più sottile: se l’AI non preme il grilletto ma suggerisce chi dovrebbe essere nel mirino, dove si colloca la responsabilità morale?

Nel frattempo, il mercato reagisce. L’episodio ha generato backlash, al punto che Claude di Anthropic ha temporaneamente superato ChatGPT nell’App Store di Apple. Segnale simbolico, ma non irrilevante. La percezione conta. In un’economia dell’attenzione, l’etica è un asset competitivo, almeno finché non collide con i contratti federali.

Da CEO, la mossa di Altman è comprensibile. Meglio subire critiche oggi che essere esclusi domani da un ecosistema di difesa che muove miliardi e plasma standard tecnologici. Tuttavia, la velocità con cui l’accordo è stato chiuso alimenta dubbi sulla profondità della due diligence etica. “Se abbiamo ragione, sembreremo geni”, ha detto Altman. È una scommessa binaria. O visionari, o imprudenti.

Nel lungo periodo, il vero campo di battaglia non sarà il contratto in sé, ma la governance dell’AI in ambito militare. Chi definisce le linee rosse? Chi verifica che vengano rispettate? Qual è il ruolo del Congresso, delle corti, dell’opinione pubblica? Le aziende possono dichiarare che i loro modelli non verranno integrati direttamente in sistemi d’arma, ma la storia dell’innovazione insegna che le tecnologie dual use trovano sempre applicazioni inattese.

Il punto, brutalmente, è che l’intelligenza artificiale è già parte dell’infrastruttura della sicurezza nazionale. Fingere il contrario è un esercizio retorico. La differenza tra OpenAI e Anthropic non è se collaborare o meno con il governo, ma come farlo, con quali condizioni e con quale narrativa.

In questa partita, la trasparenza diventa un vantaggio competitivo tanto quanto la potenza del modello. Le aziende che sapranno spiegare in modo credibile le proprie architetture di controllo, i propri audit, i propri limiti tecnici, avranno un vantaggio non solo reputazionale ma regolatorio. Perché il prossimo passo, inevitabile, sarà una regolamentazione più stringente dell’AI militare.

Chi osserva la scena da Milano o da Bruxelles potrebbe liquidare la vicenda come un affare interno americano. Sarebbe un errore strategico. Gli standard che emergono negli Stati Uniti tendono a diventare benchmark globali, soprattutto quando coinvolgono sicurezza e tecnologia. Le imprese europee che sviluppano AI dovrebbero studiare con attenzione questo caso, non per imitare, ma per comprendere le dinamiche di potere che si stanno consolidando.

La storia giudicherà se l’accordo OpenAI Pentagono sia stato un atto di responsabilità industriale o un cedimento affrettato alla realpolitik. Nel frattempo, una cosa è certa. L’era in cui le aziende di intelligenza artificiale potevano presentarsi come laboratori neutri di innovazione è finita. Ora sono attori geopolitici. E come tali verranno trattati.