Quando un modello linguistico genera in 48 secondi ciò che un comandante impiega 48 ore a pianificare, non si parla più di innovazione. Si parla di mutazione genetica della guerra. Non è uno scenario futuristico né una trovata pubblicitaria da film di Hollywood. È quello che sta succedendo a Xian, nella provincia nord-occidentale della Cina, dove un team di ricerca dell’Università Tecnologica ha combinato large language models (LLM) e simulazioni militari con una naturalezza che ricorda più uno script di Black Mirror che un report accademico.
Il protagonista silenzioso della rivoluzione si chiama DeepSeek. Nome da start-up emergente, anima da mostro strategico. È un modello LLM nato a Hangzhou che, per efficienza e versatilità, ha fatto sobbalzare Washington e irritato il Pentagono, al punto che perfino Donald Trump lo ha definito una “wake-up call” per l’industria tech americana. Il perché è semplice: DeepSeek non si limita a produrre testo o contenuti generici come ChatGPT. Riesce a generare 10.000 scenari militari plausibili, coerenti, geolocalizzati e dinamicamente adattivi in meno di un minuto.
Sì, perché non si tratta di mappe statiche da gioco da tavolo. Parliamo di simulazioni che integrano morfologia del terreno, posizionamento delle forze in campo, logica degli eventi e strategie operative. In altre parole: creatività bellica algoritmica. Fu Yanfang, a capo del team cinese, non usa mezzi termini. “Non è solo un miglioramento dell’efficienza”, ha dichiarato. “È una rottura totale con gli scenari costruiti manualmente”. Il che, tradotto in lingua militare, significa disintermediazione del comando umano.
Se un LLM può pianificare più velocemente, con maggiori varianti e meno pregiudizi cognitivi rispetto a un ufficiale in carne e ossa, che senso ha mantenere in vita il principio della superiorità tattica umana? La domanda non è retorica, è strategica. Secondo PLA Daily, l’organo ufficiale dell’esercito cinese, la nuova dottrina sarà vincere tramite algoritmo. Una frase che ha il sapore del definitivo, come quando si è passati dalle spade ai cannoni. “Al centro dell’algoritmo c’è la potenza di calcolo”, scrivono. “E la potenza di calcolo determina la potenza di fuoco”.
A voler cercare il sottotesto geopolitico, è evidente che la corsa all’intelligenza artificiale militare rappresenta il nuovo fronte della guerra fredda 2.0. Gli USA bloccano l’export di chip avanzati, la Cina accelera sulla civil-military fusion. Da un lato, miliardi investiti dalla Difesa americana in tecnologie di machine learning e edge computing. Dall’altro, un ecosistema tecnologico cinese che punta tutto sulla scalabilità e sulla replicabilità dell’intelligenza artificiale, anche nei settori più sensibili come la progettazione di droni autonomi o l’ottimizzazione della consapevolezza situazionale (situational awareness, per chi ancora pensa in PowerPoint).
La questione si fa ancora più spinosa quando si parla di velocità. Pierre Vandier, comandante della NATO per la trasformazione strategica, ha detto chiaramente: “La velocità delle operazioni cambierà radicalmente. Se non ti adatti, muori”. E non si riferiva a metafore poetiche. La guerra in Ucraina ha dimostrato che chi integra prima AI e sensoristica avanzata sul campo vince. Chi attende i rapporti del giorno dopo, semplicemente non sopravvive.
Nessuno vuole ammetterlo, ma stiamo costruendo intelligenze artificiali per prendere decisioni letali in tempo reale. Senza bisogno di riflessione, di etica, o di contesto. Perché un modello addestrato su milioni di dataset militari può suggerire una manovra di accerchiamento, un attacco preventivo, una ritirata strategica — tutto questo in millisecondi. Molto più rapidamente di quanto un essere umano possa alzare il telefono per confermare un ordine.
La narrazione ufficiale cinese parla di “guerra intelligentizzata”. Un’espressione tanto elegante quanto ambigua. Vuol dire tutto e niente, ma sottintende un’idea chiara: la guerra sarà una questione di sistemi cognitivi artificiali, non di eroi o di generali carismatici. Lo scenario non è più quello di Clausewitz, ma di un GitHub militarizzato, dove ogni branch è una variante operativa, e ogni commit è una possibile escalation.
A margine, mentre nelle acque filippine vengono ritrovati droni acquatici con simboli cinesi (chiamiamoli con il loro nome: bot navali autonomi), ci si interroga ancora sulla possibilità di regolamentare l’uso dell’AI nei sistemi d’arma nucleari. Come se si potesse mettere un freno razionale a un’accelerazione esponenziale.
Non si tratta più solo di dual use, la solita etichetta comoda per tranquillizzare l’opinione pubblica. L’AI militare è foundational: non supporta il conflitto, lo definisce. Non rende solo più efficiente la guerra, ne modifica il paradigma. E mentre in Europa ci si arrovella su regolamenti e codici etici (senza chip, peraltro), altrove si gioca a generare 10.000 guerre al minuto. E non stiamo parlando di videogiochi.
Forse è il momento di riscrivere il manuale strategico. O quantomeno di smettere di credere che gli umani abbiano ancora il controllo della narrazione. L’algoritmo ha già cominciato a scriverla da solo.