Gli ultimi sviluppi legati all’utilizzo di sistemi di Anthropic da parte del US Department of Defense nelle operazioni contro l’Iran hanno reso plastico ciò che molti analisti ripetono da anni con tono accademico e scarsa audience: l’intelligenza artificiale non è più un supporto, è architettura di comando.

Secondo ricostruzioni di The Wall Street Journal e Reuters, i modelli sarebbero stati impiegati per valutazioni di intelligence, identificazione di obiettivi e simulazioni di scenari di battaglia. Tradotto in linguaggio meno diplomatico, l’algoritmo ha iniziato a sedersi al tavolo dove si decide chi colpire, quando e con quali probabilità di successo. Non è più solo analytics, è dottrina.

Chi guida aziende tecnologiche o governi e continua a considerare l’intelligenza artificiale come una questione di produttività o customer experience, farebbe bene a rileggere la storia del Novecento. Ogni salto tecnologico significativo ha avuto una declinazione militare, spesso prima ancora che civile. Il nucleare, il radar, internet stesso. L’AI non fa eccezione, semplicemente accelera tutto.

In questo contesto, la reazione di Pechino non sorprende. L’idea di sovranità tecnologica cinese non nasce ieri, ma gli sviluppi recenti offrono una giustificazione politica potente, quasi pedagogica. Quando il Pentagono firma contratti con giganti come OpenAI, Google o xAI, il messaggio che arriva a Zhongnanhai è cristallino: le aziende di frontiera non sono più solo attori di mercato, sono nodi integrati nell’architettura della difesa americana.

Questo cambia la semantica del rischio. Non si tratta soltanto di dipendenza da chip o cloud stranieri, ma di fiducia sistemica. Se un modello di frontiera è embedded nella difesa statunitense, può essere considerato neutrale in un’infrastruttura critica cinese? La risposta implicita è no. La conseguenza è un’accelerazione della strategia di autosufficienza su chip domestici, modelli proprietari e cloud sovrani. La keyword correlata qui è sovranità tecnologica, e non è uno slogan, è una roadmap industriale.

Il paradosso è evidente. Mentre Washington rafforza la collaborazione pubblico privata in ambito difesa, Pechino risponde con una spinta ancora più decisa verso l’indipendenza dall’ecosistema occidentale. Il risultato non è una convergenza, ma una biforcazione. Un grande scisma dell’AI, dove standard, supply chain, framework di sicurezza e persino dataset potrebbero divergere in modo strutturale.

Nel frattempo, il Pentagono, secondo quanto riportato dal Financial Times, starebbe valutando strumenti di cyber warfare basati su AI per analizzare reti elettriche e infrastrutture sensibili cinesi. Se confermato, sarebbe un ulteriore passo verso una militarizzazione algoritmica preventiva, dove la vulnerabilità viene mappata prima ancora che il conflitto si manifesti apertamente. Non è fantascienza, è pianificazione strategica.

La Cina non resta a guardare. La parata militare dello scorso settembre ha mostrato droni, veicoli unmanned, sistemi subacquei, tutti alimentati da algoritmi capaci di processare dati in tempo reale e prendere decisioni autonome. L’AI applicata alla difesa non è più un progetto pilota, è una linea di produzione. Qui emergono altre due keyword semantiche fondamentali: cybersecurity e modelli open source.

Diversamente dai competitor statunitensi, molte aziende cinesi hanno scelto la strada dell’open source, rendendo disponibili codice e pesi dei modelli. Dal punto di vista dell’ecosistema, è una mossa intelligente; amplia la base di sviluppatori, accelera l’adozione, stimola innovazione diffusa. Dal punto di vista della sicurezza, è un’arma a doppio taglio. Se un ricercatore onesto può analizzare vulnerabilità e proporre patch, lo stesso può fare un attore malevolo, magari con meno scrupoli e più risorse.

La discussione tecnica su watermarking, machine learning privacy preserving e sistemi di verifica della provenienza dei contenuti è in pieno fermento. Tuttavia, nessuna soluzione rappresenta una panacea. L’illusione che esista un silver bullet tecnologico è rassicurante, ma poco realistica. In ambito militare, l’asimmetria informativa è spesso più decisiva dell’innovazione pura.

Il teatro mediorientale, nel frattempo, offre una lezione diversa ma complementare. Aziende cinesi come Baidu e WeRide, impegnate nello sviluppo di robotaxi negli Emirati Arabi Uniti e in Arabia Saudita, hanno dovuto sospendere o rimodulare le operazioni a causa dell’escalation tra Stati Uniti, Israele e Iran. La tecnologia civile, sofisticata e ambiziosa, si ritrova improvvisamente ostaggio della geopolitica.

A Dubai, hub tecnologico che ospita colossi come Microsoft, Amazon e Huawei, la vulnerabilità delle infrastrutture è diventata tangibile. Data center colpiti da blackout, personale in smart working forzato, voli sospesi. La trasformazione digitale, quando incontra la guerra, scopre la sua dipendenza dal contesto fisico. La nuvola resta ancorata alla terra.

Per chi osserva con occhio strategico, il messaggio è duplice. Primo, l’AI militare sta ridefinendo gli equilibri di potere, imponendo una corsa accelerata verso autonomia tecnologica e controllo della supply chain. Secondo, la globalizzazione tecnologica, che sembrava inarrestabile, si sta frammentando lungo linee geopolitiche sempre più marcate.

La retorica dell’innovazione come forza neutrale appare ingenua. Quando un presidente annuncia la progressiva esclusione di un fornitore AI dai sistemi militari, come nel caso della fase out di Anthropic annunciata dall’amministrazione di Donald Trump, non si tratta solo di procurement. È un segnale al mercato, agli alleati e ai rivali. È una dichiarazione di appartenenza.

In questo scenario, l’impresa tecnologica non può più permettersi una postura apolitica. Ogni scelta di partnership, ogni architettura cloud, ogni dipendenza da chip esteri diventa una variabile strategica. La governance dell’intelligenza artificiale non è più solo compliance normativa, è gestione del rischio geopolitico.

Qualcuno potrebbe obiettare che il ciclo si ripeterà, che alla fine prevarrà l’interoperabilità, che il business troverà una sintesi pragmatica. Forse. Tuttavia, la storia insegna che quando la tecnologia diventa strumento centrale di potenza militare, la logica del mercato tende a piegarsi a quella della sicurezza nazionale.

L’AI militare, la sovranità tecnologica e la cybersecurity non sono temi separati, sono facce della stessa medaglia. Chi guida aziende, fondi o governi deve iniziare a ragionare in termini sistemici, accettando che l’algoritmo non è più solo codice, ma infrastruttura critica. In un mondo dove i modelli decidono traiettorie di droni e priorità di bersagli, la neutralità tecnologica diventa un lusso retorico.

Resta una domanda, scomoda ma inevitabile. Se l’intelligenza artificiale è ormai parte integrante dell’architettura militare globale, quale spazio rimane per una governance condivisa? La risposta, per ora, sembra affidata agli stessi algoritmi che dovrebbero essere regolati. Una circolarità elegante, quasi ironica, che farebbe sorridere un economista del secolo scorso. Purché non debba decidere lui il prossimo target.