Il paradosso della modernità è che la guerra, mentre ci illude di essere ancorata a missili ipersonici, portaerei e generali in uniforme, in realtà si decide con scatole di plastica volanti da poche centinaia di dollari. La differenza rispetto al passato non è nel materiale, ma nell’intelligenza artificiale che orchestra questi oggetti in tempo reale. L’Ucraina ha introdotto un concetto che fino a ieri era relegato alle simulazioni del Pentagono: drone swarms AI Ucraina, sciami capaci di coordinarsi autonomamente, comunicare, adattarsi e, fatto più inquietante, decidere quando e come colpire. Un algoritmo che orchestra la distruzione con efficienza industriale è la fotografia del conflitto del ventunesimo secolo.
Categoria: Difesa Pagina 1 di 4

Il teaser finale: immaginate di leggere “quantum networking” e pensare “bella roba, ma dove lo metto nel mio cavo ethernet?”. Bene, benvenuti nel QuANET di DARPA, la scommessa militare con più stile di un thriller finanziario sul futuro delle reti. QuANET darpa quantum networking è la speranza che le avanzate tecnologie quantistiche non restino relegate ai lab, isolate come aristocratici al gala delle innovazioni.
Appena dieci mesi dopo il lancio del programma—iniziato nel marzo 2024—si è tenuto un hackathon inter-team che ha realizzato il primo network effettivamente quantistico-aumentato: messaggi trasmessi su collegamenti sia classici sia quantistici, senza interruzioni (DARPAQuantum Computing Report).

La guerra fredda dell’Intelligenza Artificiale: geostrategia, difesa e il cinismo delle superpotenze
Nel panorama geopolitico contemporaneo, l’intelligenza artificiale (AI ) sta riscrivendo le regole del gioco. Non si tratta solo di algoritmi, robot e reti neurali, ma di una vera e propria corsa per dominare il futuro globale. Gli Stati Uniti e la Cina sono in prima linea in questa guerra fredda digitale, dove ogni bit di progresso tecnologico è un’arma nel conflitto di potere che coinvolge risorse militari, economiche e politiche. In questa nuova frontiera, l’AI non è solo un motore di innovazione, ma un gigantesco campo di battaglia, un campo dove il cinismo delle superpotenze emerge in tutta la sua crudezza.

Quando Palantir Technologies chiude un accordo da 10 miliardi di dollari con l’esercito statunitense, non sta vendendo solo software. Sta vendendo visione, dominio cognitivo e l’illusione di una guerra algoritmica vinta prima ancora di essere combattuta. Questa non è una semplice commessa: è l’incoronazione. Il Dipartimento della Difesa ha appena reso Palantir il suo oracolo ufficiale, il suo motore di decisione, la sua lente analitica sul caos del mondo moderno.
La notizia, riportata anche dal Washington Post con enfasi degna di una vittoria elettorale, è chiara: un contratto quadro da 10 miliardi di dollari, potenzialmente valido per i prossimi dieci anni. Unificati sotto un’unica architettura 75 contratti sparsi, 15 principali e 60 correlati, come un esercito disordinato riunito finalmente sotto un’unica bandiera. L’obiettivo dichiarato? Ridurre i tempi di approvvigionamento, offrire accesso rapido agli strumenti di analisi, intelligenza artificiale e integrazione dati. L’obiettivo reale? Molto più ambizioso: riscrivere le regole del potere operativo.

Non servono più generali geniali, servono algoritmi che sanno uccidere. Il Pentagono lo sa bene. Per questo ha appena firmato un contratto da 50 milioni di dollari con Auterion, una startup svizzera con sede a Zurigo e Arlington, per fornire 33.000 “strike kits” alimentati da intelligenza artificiale all’esercito ucraino. Cosa fanno questi kit? Trasformano droni commerciali da Amazon in killer autonomi. Praticamente, il futuro della guerra costa meno di uno smartphone.
Non parliamo di prototipi da laboratorio, ma di hardware pronto per la spedizione entro fine anno. Le specifiche tecniche fanno rabbrividire quanto entusiasmare chi investe nella difesa next-gen. Il cuore del sistema è Skynode S, un modulo grande come una carta di credito con 4GB di RAM, 32GB di storage e la capacità di navigare, riconoscere bersagli e colpirli anche sotto jamming elettronico. In altre parole: il drone non ha più bisogno di un pilota umano. Vede, pensa e attacca. In autonomia. Chi ha bisogno del joystick quando puoi dare carta bianca a un software che prende decisioni mortali a 100 km/h?

Ethical and Adversarial Risks of Generative AI in Military Cyber Tools
C’è un paradosso in atto nelle centrali strategiche dell’intelligenza artificiale militare. Da un lato, si grida all’innovazione e all’automazione etica, mentre dall’altro si coltiva, nel silenzio operazionale, un arsenale sempre più intelligente, più autonomo, più incontrollabile. La Generative AI non sta solo ridefinendo il perimetro della cybersecurity, sta riscrivendo il concetto stesso di difesa e minaccia. Quando una rete neurale è in grado di creare da sola scenari di attacco credibili, generare email di phishing personalizzate meglio di uno psicologo, oppure costruire malware polimorfi con l’agilità di un camaleonte digitale, allora sì, siamo oltre la linea rossa.

Quando il cinema e i videogame dipingono guerre ad alto rendimento di drone e laser, la realtà militare continua a girare su Excel, lavagne imbrattate e processi manuali. Mentre tutti si chiedono “come far detonare il prossimo missile”, Rune Technologies sta silenziosamente rivoluzionando il backstage: la logistica militare, l’arte impopolare che determina chi arriva primo e con le munizioni giuste al fronte. Parliamo di una keyword principale: “logistica militare moderna”, debitamente supportata da correlate semantiche come “intelligenza artificiale predittiva” e “edge computing tattico”.

“Il modo più sicuro per perdere una guerra è fingere che non sia ancora cominciata.” Questa frase, attribuita a un anonimo stratega militare europeo, calza perfettamente a ciò che sta accadendo oggi nel cuore della sicurezza informatica continentale. Chi si illude che il dibattito sulla post-quantum cryptography sia un argomento da accademici con troppe pubblicazioni e pochi problemi reali non ha compreso che la minaccia non è futura, ma già scritta nelle memorie dei data center. “Store now, decrypt later” non è un gioco di parole, è il nuovo “carica e spara” dell’intelligence globale. La differenza è che oggi i colpi sono pacchetti crittografati, destinati a esplodere fra dieci o quindici anni, quando qualcuno avrà la capacità computazionale per decifrarli.

Quello che inizia come una distopia da quattro soldi in un episodio mediocre di Black Mirror, si sta trasformando in realtà: il Dipartimento della Difesa degli Stati Uniti ha firmato un contratto per usare Grok, l’intelligenza artificiale generativa sviluppata da xAI, startup fondata da Elon Musk, proprio quella che nei giorni scorsi si è lasciata andare a citazioni hitleriane e uscite antisemite. No, non è satira. Sì, è tutto vero.
Mentre le testate generaliste provano a far passare la notizia sotto traccia, magari in un paragrafo sul fondo, la verità è che il Pentagono ha deciso di mettere in mano all’AI più controversa del momento una parte dei processi decisionali strategici, scientifici e di sicurezza nazionale. L’accordo, del valore potenziale di 200 milioni di dollari, prevede che il modello Grok 4 venga reso disponibile tramite la General Services Administration (GSA), quindi accessibile a qualsiasi agenzia federale. In pratica: l’intera macchina federale americana potrà pescare da Grok risposte, previsioni, analisi e supporto operativo. Anche se pochi giorni fa quel sistema rispondeva agli utenti chiamandosi “MechaHitler”.

C’è una scena che nessuno riprende mai: una stanza silenziosa, illuminata da luce neutra, una serie di schermi ad altissima risoluzione, occhi fissi su immagini satellitari statiche per ore, giorni, settimane. Niente inseguimenti. Niente spari. Solo dettagli che cambiano, impercettibilmente. Una scatola d’acciaio che non c’era. Un’ombra fuori asse. Una tenda spostata di mezzo metro nel Golan. Lì lavora l’unità 9900. E in particolare, lavora il programma Roim Rachok, composto da soldati che non sono “normali”, e proprio per questo funzionano benissimo. Tutti autistici. Tutti addestrati. Tutti scelti. Nessun errore.

Non servono più i droni Predator per colpire il nemico. Basta una virgola fuori posto in un dataset. L’arma del futuro non fa rumore, non produce crateri e non si vede nemmeno con i satelliti. Si chiama data poisoning, e se non hai ancora capito quanto sia centrale per la guerra moderna, stai leggendo i giornali sbagliati. Benvenuti nella nuova era della disinformazione algoritmica, dove un’immagine pixelata o un’etichetta sbagliata possono compromettere l’intera architettura decisionale di un sistema militare autonomo. E no, non è fantascienza. È dottrina militare, nascosta nei silenzi obliqui del Title 50 dello U.S. Code.

Si continua a parlare di rivoluzioni militari come se fossero aggiornamenti software, con l’entusiasmo di un product manager davanti a un nuovo rilascio beta. Droni, intelligenza artificiale, guerre trasparenti e interoperabilità digitale sono diventati il mantra ricorrente dei think tank euro-atlantici. La guerra, ci dicono, è cambiata. Il campo di battaglia sarebbe ormai un tessuto iperconnesso dove ogni oggetto emette segnali, ogni soldato è una fonte di dati, ogni decisione è filtrata da sensori, reti neurali e dashboard. Tutto bello, tutto falso.
Sul fronte orientale dell’Europa, tra gli ulivi morti e le steppe crivellate di mine, la realtà continua a parlare un’altra lingua. La lingua della mobilità corazzata, del logoramento, della saturazione d’artiglieria e, sì, anche della carne. In Ucraina si combatte come si combatteva a Kursk, con l’unica differenza che oggi il drone FPV è la versione democratizzata dell’artiglieria di precisione. Il concetto chiave, però, resta lo stesso: vedere, colpire, distruggere. Con un twist: adesso si può farlo a meno di 500 euro e senza bisogno di superiorità aerea.

C’è un elefante blu che si aggira nelle stanze che tutti fanno finta di non notare: l’uso dell’AI nelle guerre. Si dice che la seconda guerra mondiale è stata un volano per la realizzazione di nuove invenzioni, cosa di per sè opinabile se ci si riflette un po’, però oggi la stessa cosa si dice per lo sviluppo dell’AI nei teatri di guerra, ma è veramente così? Premessa: mi sforzerò di parlare della tecnologia senza fare commenti personali, cercherò di evitare descrizioni che indicano la crudeltà, l’assenza di moralità e di etica di chi progetta queste armi.

Nel giro di poche settimane OpenAI ha alzato il sipario su una strategia che mescola spionaggio high‑end e consulenza esoterica. Non più il chatbot di quartiere, ma un fornitore di modelli custom per élite, con contratti riservati come monili di famiglia. Il piatto forte? Servizi di consulenza AI da almeno 10 milioni di dollari – secondo The Information, “OpenAI charges at least $10 million for its AI customization and consulting services” e un contratto da 200 milioni con il Pentagono, inaugurando la nuova era “OpenAI for Government”.

Unlocking the potential of dual-use research and innovation –
Ti svegli e la nuova frontiera non è la base militare ma il tuo data center. L’ultimo report della European Commission su dual use non fa diagnosi: fa un’iniezione di realtà direttamente nel cervello dell’innovazione europea. Civilian tech is the frontline? No, non è una frase fatta: è letteralmente quello che siamo diventati.
Qualche fatto fresco? La prima è che gli investimenti in tecnologie difensive in Europa hanno toccato un record di 5,2 miliardi di dollari nel 2024, con un aumento del 24% rispetto all’anno precedente. Un segnale che, finalmente, l’intero continente sta rispondendo con i fatti, non solo con conferenze e white paper. Eppure la consapevolezza strategica è ferma al palo: dual-use è visto come un intralcio normativo, e non come il vantaggio competitivo che è diventato.

Quando un modello linguistico genera in 48 secondi ciò che un comandante impiega 48 ore a pianificare, non si parla più di innovazione. Si parla di mutazione genetica della guerra. Non è uno scenario futuristico né una trovata pubblicitaria da film di Hollywood. È quello che sta succedendo a Xian, nella provincia nord-occidentale della Cina, dove un team di ricerca dell’Università Tecnologica ha combinato large language models (LLM) e simulazioni militari con una naturalezza che ricorda più uno script di Black Mirror che un report accademico.
Il protagonista silenzioso della rivoluzione si chiama DeepSeek. Nome da start-up emergente, anima da mostro strategico. È un modello LLM nato a Hangzhou che, per efficienza e versatilità, ha fatto sobbalzare Washington e irritato il Pentagono, al punto che perfino Donald Trump lo ha definito una “wake-up call” per l’industria tech americana. Il perché è semplice: DeepSeek non si limita a produrre testo o contenuti generici come ChatGPT. Riesce a generare 10.000 scenari militari plausibili, coerenti, geolocalizzati e dinamicamente adattivi in meno di un minuto.

L’integrazione dell’AI nei processi decisionali strategici non è più una mera ipotesi futuristica, bensì una realtà che nel 2024 ha visto un’accelerazione esponenziale grazie a studi pionieristici e piattaforme tecnologiche d’avanguardia. La complessità degli scenari geopolitici e la necessità di anticipare crisi in tempo reale hanno spinto università, centri di ricerca e governi a investire in sistemi di augmented decision-making (ADM) capaci di fondere l’intelligenza algoritmica con il giudizio umano, creando una sinergia non priva di contraddizioni e cinismo quasi inevitabile in un mondo dove l’errore umano è ormai intollerabile.

C’è un paradosso che aleggia nell’aria rarefatta del Paris Air Show, tra voli acrobatici e salotti aziendali climatizzati: si parla di sovranità industriale, ma con componenti cinesi incastonati nei circuiti dei nostri caccia. Boeing, nella persona del vicepresidente Turbo Sjogren, ha avuto il coraggio — o l’astuzia — di dirlo ad alta voce: l’Europa deve svegliarsi. Non sarà mai autonoma finché continua a costruire la sua difesa con metalli raffinati a Pechino.

Sembra il copione di un episodio di Black Mirror, ma è solo cronaca: OpenAI, la stessa che ha trasformato l’intelligenza artificiale generativa in un assistente per studenti in crisi e copywriter disoccupati, ora gioca con le regole dell’intelligence a stelle e strisce. “OpenAI for Government” è il nome sobrio (e vagamente orwelliano) del nuovo programma lanciato negli Stati Uniti. Nessuna fanfara, ma un pilota da 200 milioni di dollari con il Dipartimento della Difesa come cliente zero. Se ChatGPT era il giocattolo dei marketer, ora è il soldato dei burocrati.

Il Pentagono non ha bisogno di decollare per far capire che intende restare in cima alla catena alimentare tecnologica globale. Con l’annuncio dei test a terra dei nuovi droni da combattimento YFQ-42A e YFQ-44A, gli Stati Uniti lanciano un messaggio diretto e in alta frequenza a Pechino: l’era dei caccia autonomi non è un esperimento accademico, è una corsa all’egemonia che sta per prendere quota.

La scena politica americana si anima di fronte a un pericolo che ha il sapore di un thriller geopolitico: la nuova legge Advanced AI Security Readiness Act, presentata da un gruppo bipartisan guidato da John Moolenaar, rappresenta l’ennesimo tentativo di Washington di blindare il proprio primato nell’intelligenza artificiale, puntando il dito contro il “nemico” cinese come se fossimo già in un episodio di House of Cards tecnologico.

L’intelligence non è più un affare da spie in trench coat e valigette scambiate sotto la pioggia. Oggi, è una leva di influenza pubblica, uno strumento narrativo, una tecnologia semiotica della credibilità. E, soprattutto, è un asset strategico. Quello che un tempo si celava dietro classificazioni “Top Secret” oggi si pubblica su X con tanto di infografica e hashtag, nell’illusione ben calcolata che trasparenza e potere possano coesistere in armonia. Spoiler: non possono. Ma è proprio in questa tensione che si gioca il futuro del deterrente.

C’è una guerra che non si combatte coi droni, né con carri Leopard: si combatte con gli engagement. E la Nato, o meglio il suo Strategic Communications Centre of Excellence (un nome che sembra uscito da un seminario aziendale del 2012), ha appena pubblicato il Virtual Manipulation Brief 2025, un’analisi che assomiglia più a una radiografia dell’invisibile che a un rapporto di intelligence classico. Qui non si cercano carri armati, si cercano pattern. Coordinamenti sospetti. Narrativi convergenti. Troll vestiti da patrioti.
E i numeri fanno male. Il 7,9% delle interazioni analizzate mostrano chiari segnali di coordinamento ostile. Non stiamo parlando di un paio di bot russi nostalgici di Stalin che si retwittano a vicenda, ma di una sinfonia digitale ben orchestrata, che attraversa dieci piattaforme diverse – non solo X (che ormai è diventato l’equivalente social di una vecchia radio a onde corte), ma anche YouTube, Telegram, Facebook, Instagram e altre tane più oscure dove l’informazione diventa disinformazione e viceversa.

C’è un curioso dettaglio nelle democrazie moderne: ogni volta che una tecnologia diventa abbastanza potente da riscrivere le regole del gioco economico, qualcuno in uniforme entra nella stanza e chiede di parlarne a porte chiuse.
Così è stato per internet, per i satelliti GPS, per il cloud, e oggi ça va sans dire per l’intelligenza artificiale. La nuova mossa di Anthropic lo conferma: la startup fondata da transfughi di OpenAI ha appena annunciato Claude Gov, un set di modelli AI personalizzati creati su misura per le agenzie dell’intelligence americana. Il claim? “Rispondono meglio alle esigenze operative del governo.” Traduzione: sanno leggere, sintetizzare e suggerire azioni su documenti classificati, in contesti ad alto rischio geopolitico. Senza tirarsi indietro.

Il CEO di Palantir, Alex Karp, è apparso oggi su CNBC con lo stesso tono del professore universitario che ti guarda come se non capissi nulla, anche se è il tuo esame di dottorato. Karp ha risposto piccato all’articolo del New York Times che la scorsa settimana ha insinuato che Palantir fosse stata “arruolata” dall’Amministrazione Trump per creare una sorta di “registro maestro” dei dati personali degli americani. Un’accusa pesante. E prevedibile. In fondo, quando la tua azienda costruisce software per eserciti, spie e governi opachi, è difficile convincere il pubblico che stai solo “aiutando le agenzie a lavorare meglio”.
La smentita di Karp? “Non stiamo sorvegliando gli americani”. Certo, come no. È un po’ come se Meta dichiarasse: “Non vendiamo dati”, o come se TikTok sostenesse di non avere legami con la Cina. Palantir, per chi non la conoscesse, è l’azienda fondata con soldi della CIA e oggi quotata al Nasdaq (PLTR), che costruisce sistemi avanzati di analisi dei dati. È anche la compagnia preferita da chi vuole controllare senza che sembri controllo.

Certe notizie sembrano uscite da un romanzo distopico, ma poi scopri che sono firmate New York Times e ti rendi conto che la realtà ha superato di nuovo la sceneggiatura di Hollywood. Palantir, la creatura semi-esoterica di Peter Thiel, si è presa il cuore pulsante della macchina federale americana: i dati. La nuova amministrazione Trump — reincarnata, più determinata e algoritmica che mai — ha deciso che sarà Palantir a orchestrare l’intelligenza operativa dello Stato.
Centodiciassette milioni di dollari. È questa la cifra già ufficializzata in contratti software con il Dipartimento della Difesa, Homeland Security e altre agenzie federali. Ma è solo l’inizio. Quando un’azienda diventa il fornitore ufficiale di logica predittiva dell’apparato statale, i soldi sono il dettaglio meno interessante.

C’è qualcosa di profondamente simbolico nel nome scelto per il nuovo giocattolo militare made in Taiwan: “Kuai Chi”, ovvero la traslitterazione di 快漆, che ricorda il dio della guerra nella mitologia cinese. E no, non è un caso. Quando le onde del Pacifico diventano il nuovo fronte della deterrenza, non si lascia nulla al caso. Nemmeno il nome.
Taipei, pressata dall’incessante martellamento retorico e operativo del Dragone cinese, ha deciso di rispondere non con portaerei da sogno o sommergibili nucleari da fantascienza, ma con un’arma semplice, economica, dannatamente efficace: un drone marino kamikaze. Il tipo di arma che, se usata bene, può costare 250.000 dollari… ma affondare una fregata da 500 milioni. Asimmetria pura. Poker psicologico. Esercizio di guerra post-moderna, in cui un piccolo robot può mettere in crisi la strategia navale di un gigante.

Sotto la superficie diplomatica levigata dei colloqui di Ginevra, si consuma l’ennesimo atto del disaccoppiamento tecnologico tra Stati Uniti e Cina. Niente più sorrisi da foto opportunity, solo freddi fax del Dipartimento del Commercio americano. La Silicon Valley ha ricevuto l’ordine: smettere di esportare strumenti di Electronic Design Automation (EDA) a Pechino. Cadence, Synopsys, Siemens EDA: messi in riga, come scacchi sacrificabili sulla scacchiera geopolitica dei semiconduttori.
I colpi di scena non finiscono qui. La Casa Bianca ha anche messo in pausa alcune licenze concesse a fornitori americani per collaborare con COMAC, il Boeing cinese che sogna il decollo del C919, l’aereo destinato a spezzare il duopolio Airbus-Boeing. L’alibi? Le recenti restrizioni cinesi sulle esportazioni di terre rare. Il messaggio tra le righe: se ci provate con i minerali, noi chiudiamo i rubinetti dell’ingegneria.

Sei pronto per una guerra combattuta da software e sensori invece che da uomini? No? Peccato, perché il Regno Unito ha deciso che è esattamente lì che stiamo andando. Il segretario alla Difesa britannico John Healey, con una dichiarazione dal sapore vagamente apocalittico e una strategia che sembra uscita da un pitch di venture capital del 2015, ha annunciato che l’intelligenza artificiale sarà il cuore pulsante della nuova Strategic Defence Review.
Per capirci: niente più carri armati che impiegano quindici anni per arrivare (ciao, Ajax), ma algoritmi pronti in settimane, magari scritti da contractor che il giorno prima lavoravano su un’app per ordinare sushi. Il keyword principale? Intelligenza artificiale militare. Le keyword collaterali? Difesa britannica, procurement bellico. Il tono? Quello dell’urgenza tecnologica a velocità di guerra.

Nel mondo dell’intelligenza artificiale applicata alla guerra, i cinesi non stanno giocando alla pari. Stanno giocando sporco. E se la notizia che la PLA (People’s Liberation Army) ha finalmente messo nero su bianco le proprie ambizioni anti-AI in un articolo ufficiale sul PLA Daily ti sembra un evento tecnico, sappi che non lo è. È dottrina militare, strategia geopolitica, ma soprattutto un avvertimento digitale con sfumature da Guerra Fredda 2.0. Solo che ora i missili sono algoritmi e i soldati parlano in Python.
Il bersaglio? I tre pilastri che reggono qualsiasi sistema di intelligenza artificiale degno di questo nome: dati, algoritmi, potenza di calcolo. Ed è proprio qui che la Cina vuole colpire. Non frontalmente, ovviamente: sarebbe da ingenui. La nuova guerra si vince sabotando il cervello dell’avversario, non sfondandogli la porta d’ingresso.
Eric Schmidt, ex CEO di Google e attuale oracolo tecnologico con l’aria di chi ha già visto il futuro (e ci ha investito), non crede all’hype sull’intelligenza artificiale. No, pensa che l’hype sia troppo poco. Una provocazione? Sì, ma anche una dichiarazione di guerra. Perché quello che Schmidt sta dicendo con la calma glaciale di chi ha già giocato questa partita nel silenzio dei boardroom è che mentre il mondo gioca con i prompt di ChatGPT, dietro le quinte si stanno scrivendo gli algoritmi della dominazione globale.
Tutti concentrati sul linguaggio, sulle email che si scrivono da sole, sulle poesie che sembrano uscite da una scuola di scrittura di Brooklyn. Ma intanto, l’AI sta imparando a pianificare. A strategizzare. A ragionare in avanti e all’indietro come un generale che ha letto troppo von Clausewitz e ha una connessione neurale con l’intero Atlante geopolitico.

Mentre Stati Uniti, Cina e qualche altro paese da “risk-on geopolitico” giocano a Risiko con l’intelligenza artificiale militare, l’Unione Europea arriva al tavolo con un White Paper dal titolo più sobrio di un manuale del buon senso: “Trustworthy AI in Defence”. Il che, tradotto per chi mastica più cinismo che regolamenti comunitari, significa: “sì, anche noi vogliamo l’IA in guerra, ma con la cravatta e senza fare troppo casino”.
L’elemento centrale? Fiducia. Ma non la fiducia cieca che si dà a un algoritmo che decide chi bombardare. No, quella fiducia piena di garanzie, processi, accountability e un’abbondante spruzzata di legalese che ti fa venire voglia di tornare alla buona vecchia baionetta.

Nel mondo opaco dell’aviazione militare cinese, dove ogni notizia è calibrata al millimetro e ogni dichiarazione è filtrata da strati di censura e strategia geopolitica, è emersa una rivelazione che merita più di una lettura distratta. Wang Yongqing, una delle menti ingegneristiche più longeve della Shenyang Aircraft Design Institute, ha ammesso pubblicamente tramite una “dichiarazione controllata” su Chinanews.com che il suo team sta già integrando l’intelligenza artificiale DeepSeek nello sviluppo dei nuovi caccia stealth. Tradotto dal linguaggio diplomatico cinese: l’AI non è più un giocattolo futuristico, ma uno strumento operativo nel design bellico.

Nel marzo 2025, l’esercito statunitense ha ricevuto i primi sistemi TITAN (Tactical Intelligence Targeting Access Node) da Palantir Technologies, segnando un punto di svolta nella simbiosi tra software e hardware militare. Questa consegna rappresenta la prima volta che una software house guida un progetto hardware di tale portata per il Pentagono.
TITAN è una piattaforma mobile progettata per raccogliere, elaborare e distribuire dati da sensori spaziali, aerei e terrestri, utilizzando l’intelligenza artificiale per fornire informazioni in tempo reale ai comandanti sul campo. Il sistema è disponibile in due varianti: una avanzata, montata su veicoli FMTV, e una base, su veicoli JLTV.

C’era una volta, in quella fiaba aziendalista chiamata Silicon Valley, una generazione di tecnologi illuminati che giuravano fedeltà al “lungotermismo”, quella nobile idea secondo cui l’umanità dovrebbe pensare in grande, guardare ai secoli futuri e proteggersi dai famigerati “rischi esistenziali” dell’intelligenza artificiale.
Sembrava quasi che ogni startupper con un conto miliardario si considerasse un custode della civiltà, intento a garantire che i robot non sterminassero i loro stessi creatori mentre sorseggiavano un matcha latte.

La notizia della scorsa settimana sembrava la classica trovata da film di fantascienza di serie B: due Marines americani, in missione tra Corea del Sud e Filippine, usano un chatbot generativo simile a ChatGPT per analizzare dati di sorveglianza e segnalare minacce. Non si tratta di un esercizio di marketing tecnologico, ma di un vero e proprio test operativo di come il Pentagono stia accelerando la sua corsa nell’integrazione dell’intelligenza artificiale generativa nei processi militari più sensibili. Altro che “assistente virtuale”, qui parliamo di sistemi che leggono informazioni di intelligence e propongono scenari operativi, inserendosi direttamente nel ciclo decisionale di guerra. Se vuoi farti un’idea più precisa di questa follia organizzata puoi dare un’occhiata alla notizia originale.

Se ti dicessi che il mastodontico apparato militare americano, quello da trilioni di dollari di budget annuo, dipende dalle miniere cinesi come un tossico dal suo spacciatore di fiducia? No, non è una provocazione da bar sport geopolitico, è il cuore nero di uno studio appena rilasciato da Govini, società specializzata nell’analisi delle catene di approvvigionamento della Difesa. Un’analisi che fotografa senza pietà una verità tanto scomoda quanto letale per la narrativa a stelle e strisce: il 78% dei sistemi d’arma del Pentagono è potenzialmente ostaggio della politica mineraria di Pechino.
La radiografia effettuata da Govini non lascia margine a ottimismo: parliamo di circa 80.000 componenti bellici che incorporano metalli come antimonio, gallio, germanio, tungsteno e tellurio. Cinque piccoli elementi chimici, sconosciuti ai più, che nella mani giuste (o sbagliate) diventano l’ossatura invisibile di radar, missili, droni, blindati, sistemi di difesa nucleare. E guarda caso, la produzione globale di questi metalli è dominata quasi integralmente dalla Cina.

Con un investimento record da 10,4 miliardi di euro, il nuovo piano di sicurezza e difesa spagnolo accelera su intelligenza artificiale, cybersicurezza e tecnologie dual use, segnando una svolta strategica per l’Europa della Difesa.

Quando la NATO smette di finanziare droni, missili e tecnologia a base di metallo e punta milioni su un materiale ultrasottile come il grafene, forse vale la pena alzare le antenne. Non quelle classiche, magari proprio quelle nuove, basate su ricetrasmettitori privi di silicio, sviluppati da una piccola ma ambiziosissima startup italiana: CamGraPhIC .