Nel mondo dell’intelligenza artificiale applicata alla guerra, i cinesi non stanno giocando alla pari. Stanno giocando sporco. E se la notizia che la PLA (People’s Liberation Army) ha finalmente messo nero su bianco le proprie ambizioni anti-AI in un articolo ufficiale sul PLA Daily ti sembra un evento tecnico, sappi che non lo è. È dottrina militare, strategia geopolitica, ma soprattutto un avvertimento digitale con sfumature da Guerra Fredda 2.0. Solo che ora i missili sono algoritmi e i soldati parlano in Python.
Il bersaglio? I tre pilastri che reggono qualsiasi sistema di intelligenza artificiale degno di questo nome: dati, algoritmi, potenza di calcolo. Ed è proprio qui che la Cina vuole colpire. Non frontalmente, ovviamente: sarebbe da ingenui. La nuova guerra si vince sabotando il cervello dell’avversario, non sfondandogli la porta d’ingresso.
C’è qualcosa di profondamente cinese in questo approccio. L’arte dell’inganno, che Sun Tzu aveva elevato a dogma, oggi prende la forma della “deception warfare“. Il PLA non si limita a progettare armi autonome o a gestire sciami di droni impazziti: vuole inquinare l’ecosistema informativo dell’avversario. Alterare i flussi di dati, intossicare i dataset, mascherare la realtà digitale come un prestigiatore esperto. Perché se i tuoi modelli linguistici apprendono spazzatura, i loro output saranno peggio di un bot ubriaco su Twitter.
Del resto, l’idea di mandare in tilt le reti neurali nemiche con fake data, segnali distorti o “rumore elettromagnetico” è la versione 2025 del mettere sabbia nei cuscinetti di un carro armato. Solo che ora la sabbia è binaria e viaggia alla velocità della luce tra due server. L’obiettivo è semplice: rendere cieco un esercito che guida a vista attraverso l’intelligenza artificiale. Niente occhio, niente decisione. Niente decisione, niente guerra.
Ma non finisce qui. Se i dati sono il sangue dell’AI, e gli algoritmi il cervello, la potenza di calcolo è il cuore pulsante. E come ogni cuore, può essere fermato. Il PLA suggerisce, con un candore inquietante, che attacchi diretti alle centrali dati, ai sistemi di supporto elettrico, e alle infrastrutture critiche possano diventare tattiche comuni. La guerra del futuro non sarà un’esplosione, ma un blackout. Il tuo supercomputer può avere i migliori modelli predittivi, ma se non si accende, è solo un soprammobile molto costoso.
E allora sì, il concetto di “logical deception” diventa centrale. Uscire dalla logica prevedibile dei modelli, muoversi nell’irrazionale, nel contro-intuitivo. Sciami di droni che cambiano traiettoria come uno stormo di piccioni impazziti. Manovre imprevedibili che rendono inutilizzabili i pattern rilevati dagli algoritmi avversari. In pratica, comportarsi in modo talmente assurdo da rendere ogni predizione una barzelletta.
Curiosità da bar? La CIA, qualche anno fa, testava l’iniezione di data poisoning anche su banali sistemi di riconoscimento facciale. Bastava indossare occhiali con pattern specifici per “ingannare” il software. Adesso pensate a un sistema militare AI ingannato da una rete neurale nemica che gli fa scambiare un carro armato per un camion dei gelati. L’assurdo? No, solo il futuro.
Nel frattempo, gli Stati Uniti osservano e, come sempre, si svegliano in ritardo. L’uscita del comandante dell’Indo-Pacifico, Paparo, sulla possibilità di usare sciami autonomi come “hellscape” contro la PLA in caso di conflitto su Taiwan, è un amaro riconoscimento: la Cina è già avanti. E lo dimostra non solo costruendo armi, ma decostruendo le fondamenta stesse della guerra algoritmica.
La realtà è che il PLA non sta solo preparando una guerra contro altri eserciti. Sta combattendo contro i modelli statistici, contro i pesi di rete, contro l’overfitting e il bias cognitivo artificiale. È come se avessero assunto un team di hacker, filosofi del caos e scienziati dei dati con la missione di trasformare ogni punto di forza dell’AI in un’arma di distruzione psicotica. E se pensi che suoni come una distopia cyberpunk, sei ancora troppo ottimista.
Il PLA, per ora, ammette che molte di queste strategie sono teoriche. Ma è un “per ora” che va letto tra le righe. La dottrina viene prima della tecnologia, soprattutto in ambito militare. È la cornice concettuale a orientare i fondi, la ricerca e lo sviluppo. Il solo fatto che il PLA Daily, organo ufficiale, pubblichi un articolo del genere, implica che questa non è fantascienza, ma roadmap.
L’occidente? Impantanato nella corsa alla GPT-n-nessima, nel bias dell’ottimizzazione, nella moralità delle AI etiche. La Cina, invece, parla già di sabotaggio sistematico dei modelli linguistici militari. E ci tiene a precisare: servirà “pensiero dialettico” e “innovazione teorica”. Tradotto: prepariamoci a rompere le regole prima che gli altri capiscano quale gioco stiamo giocando.
Nel frattempo, in acque filippine, spuntano droni acquatici con scritte cinesi. Coincidenze? No, pattern. O forse falsi pattern. In guerra, come nel machine learning, la verità è solo quella che sopravvive alla manipolazione. E in questo campo, la Cina sta giocando da maestro zen. O da ingegnere sociopatico.
Benvenuti nella guerra dei bit tossici, dove la superiorità si misura in teraflop, ma la vittoria si ottiene con una bugia ben posizionata nel dataset nemico.

Intelligenza artificiale tattica: il nuovo campo di battaglia è già iniziato, ma a colpi di prompt
C’è una fiera a Pechino, la solita esposizione dove tra finti manichini e droni cromati si gioca una partita molto più sporca di quanto sembri. La China (Beijing) Military Intelligent Technology Expo si è appena chiusa, e no, non è una di quelle sagre dove si mangia carne di serpente e si prova la realtà virtuale giusto per ridere. Qui si parla di guerra. E di algoritmi. Anzi, della loro fusione.
Chi c’era? Oltre 500 aziende, da colossi di Stato a start-up private affamate di contratti miliardari con l’esercito. I militari, naturalmente, presenti. Ma in borghese, che in divisa farebbero troppa notizia. Gli stranieri? No grazie, vietato l’ingresso. Perché quando si mettono in vetrina modelli linguistici generativi applicati al teatro di guerra, meglio non avere troppi occhi indiscreti.
L’intelligenza artificiale militare, la keyword vera di tutta questa messa in scena, era ovunque. Ma non quella da film distopico, con robot senzienti e raggi laser. Quella reale, sporca, predittiva, che digerisce big data e rigurgita decisioni da battaglia in tempo reale. O almeno questo è il pitch.
EverReach AI, start-up di Pechino, ha mostrato al pubblico un modello di addestramento assistito da AI con tanto di mappa vicino allo Stretto di Taiwan. Coincidenze? Certo, come quando il cane mangia solo la bistecca più cara del frigo. Hanno detto che il sistema viene usato per “addestramenti di volo quotidiani”, ma ovviamente non si sono sbilanciati. Una mappa lì, un addestramento là. Il messaggio è chiaro anche senza dichiararlo: l’AI cinese sta imparando a volare sopra Taiwan.
Questa AI apprende da ogni sessione di volo: meteo, errori dei piloti, manovre azzardate. E restituisce “consigli” ottimizzati. Diciamolo per quello che è: una rete neurale militare che si nutre del fallimento per sfornare efficienza operativa. L’ennesimo passo verso l’automazione delle decisioni di guerra.
La stessa EverReach, tra un volo simulato e una dichiarazione evasiva, offre anche un “assistente intelligente” per i comandanti. Sì, come ChatGPT, ma che invece di suggerirti il copy per LinkedIn ti dice quando e come colpire. Tutto questo su base LLM sviluppato in casa, ma derivato da modelli open-source cinesi. L’open source come cavallo di Troia bellico, insomma.
La narrativa aziendale? La solita: meno stress cognitivo per il comandante, meno errori, più velocità decisionale. Tradotto dal cinese: meno umanità, più calcolo.
Dall’altro lato dello Stretto, la città di Xiamen giusto per ricordare quanto la geopolitica sia cucita anche nella geografia ha partorito Utenet, altra AI-factory pronta a vendere soluzioni a chiunque porti una mostrina sul petto. Utenet promette 70 scenari militari già mappati: comando in battaglia, coordinazione di sciami di droni autonomi, simulazioni strategiche, raccolta di intelligence e, perché no, un bel pacchetto full-optional di guerra previsionale.
Il loro prodotto-chiave è stato adottato da un istituto accademico militare per addestrare comandanti alla “competizione strategica intelligente”. Se non fosse così sinistro, sembrerebbe il titolo di una conference TEDx. Ma qui si parla di giochi di guerra, e l’obiettivo è un comandante che non pensa: calcola.
GoLaxy, altra azienda con legami stretti all’Accademia Cinese delle Scienze, ha puntato sull’intelligence open-source. Durante l’Expo, ha mostrato come la sua AI avesse già monitorato e analizzato i social media sulla crisi India-Pakistan di questo mese. No, non leggendo i tweet, ma sezionandoli, aggregandoli, deducendo pattern, allarmismi e dinamiche emotive. Il social sentiment come segnale debole per l’allerta geopolitica. Orwell aggiornato con TensorFlow.
E come se non bastasse, lo stesso DeepSeek, nome già citato da EverReach, è l’artefice del modello linguistico usato anche negli ospedali militari della PLA. Perché anche la sanità militare si digitalizza, certo. Ma vuoi vedere che il triage automatico serve anche a selezionare chi è più utile per tornare al fronte?
Xi Jinping, con il suo solito stile tra Confucio e data center, ha ribadito a marzo che l’Esercito Popolare deve “innovare nella costruzione dell’efficacia di combattimento” e rispondere “rapidamente alle tecnologie avanzate”.
Mica ha detto AI, no. Ma l’ha pensato forte. E il messaggio è stato ricevuto con entusiasmo pavloviano.

Dietro la facciata dell’innovazione, il gioco è chiaro: l’AI non è un supporto, è un potere. È l’infrastruttura cognitiva del prossimo conflitto. Non spara, ma decide chi lo farà. Non guida i droni, ma ne disegna le traiettorie.
A chi pensa che questa sia solo una gara tra startup impettite, consiglio una riflessione più cinica: se l’AI è l’arma, i dati sono la polvere da sparo. E in Cina, grazie all’assenza di ogni forma di privacy significativa, ne hanno silos pieni.
Alla fine, la vera domanda non è se l’intelligenza artificiale militare cambierà la guerra. È capire chi controllerà le sue derive quando inizierà a suggerire soluzioni troppo perfette per essere umane.
Una volta, le guerre si vincevano col coraggio. Poi col petrolio. Ora, a quanto pare, bastano un paio di GPU, un LLM fine-tuned e un dataset addestrato sulle manovre di flotta.
E se vi sembra poco, provate a spiegarlo al vostro prossimo algoritmo addestrato per decidere chi è il nemico.