Al vertice REAIM in Spagna, ottantacinque governi hanno discusso di come rendere sicuro l’uso dell’IA militare, una delle poche combinazioni di parole capaci di far tremare insieme generali, ingegneri e assicuratori. Il risultato ufficiale è una dichiarazione non vincolante con venti principi di sicurezza, firmata da trentacinque paesi. Il risultato reale è molto più interessante, e molto meno rassicurante. Stati Uniti e Cina, cioè gli unici due attori che contano davvero quando si parla di scala, potenza computazionale e integrazione militare dell’intelligenza artificiale, sono rimasti fuori. Quando i più grandi eserciti del pianeta rifiutano persino un impegno volontario, il problema non è più se le regole funzionano. È capire a chi servono davvero.

Qui la parola chiave è IA militare, non come astrazione etica ma come sistema operativo della guerra moderna. Non parliamo di droni futuristici da film di fantascienza, ma di software che già oggi analizza immagini satellitari, suggerisce obiettivi, ottimizza la logistica, decide priorità. Il punto non è se l’IA entrerà nei processi militari. Ci è già entrata. Il punto è se qualcuno crede davvero che venti principi senza meccanismi di verifica possano rallentare una corsa che è strutturalmente competitiva e, soprattutto, asimmetrica.

I piccoli stati hanno firmato. Non perché ingenui, ma perché razionali. La speranza è che norme condivise limitino gli alleati tanto quanto i rivali, una versione diplomatica del concetto di mutua distruzione assicurata, ma applicata al software. È una scommessa comprensibile. Se tutti promettono di non correre troppo, forse nessuno resta indietro. Il problema è che questa logica funziona solo quando tutti sono sulla stessa pista e sotto lo stesso cronometro. Nel caso dell’intelligenza artificiale militare, i cronometri non sono sincronizzati e le piste non sono uguali. Alcuni corrono con supercomputer, dati di guerra reali e budget illimitati. Altri con linee guida e buone intenzioni.

L’assenza di meccanismi di applicazione rende il documento REAIM più simile a un codice di condotta aziendale che a un trattato. Nessuna ispezione, nessuna sanzione, nessuna verifica indipendente. Il rispetto resta volontario, cioè opzionale, cioè subordinato alle percezioni di minaccia. E la storia della sicurezza internazionale insegna una cosa con brutalità matematica. Quando la paura di restare indietro supera la paura di sbagliare, le regole diventano carta decorativa. La governance dell’intelligenza artificiale, in questo contesto, smette di essere un problema giuridico e diventa un problema di psicologia strategica.

C’è poi un altro dettaglio che molti preferiscono ignorare. L’ambito di applicazione delle regole riguarda l’uso militare, non lo sviluppo dei modelli nei laboratori commerciali. È una distinzione comoda, ma artificiale. I modelli che alimentano i sistemi militari non nascono in bunker segreti, ma in aziende private che vendono tecnologia general purpose. La stessa architettura che genera testi, immagini o codice viene adattata, raffinata e militarizzata. Pensare di regolare solo l’ultimo miglio, lasciando intatta la catena di fornitura cognitiva, è come discutere di sicurezza stradale ignorando chi progetta i freni.

Le aziende, dal canto loro, pubblicano principi di sicurezza con la stessa frequenza con cui rilasciano nuovi modelli. È diventato un rituale. Un documento sui guardrail, una conferenza stampa, un post sul blog, poi una corsa per battere il concorrente sul benchmark successivo. Il pubblico è invitato a fidarsi che quelle barriere invisibili significhino qualcosa. Nel mondo consumer l’affidabilità dell’IA è già un problema aperto, con allucinazioni, errori e bias che fanno sorridere solo finché non contano davvero. Trasportare lo stesso livello di fiducia nell’IA militare richiede un atto di fede che neppure i più ottimisti dovrebbero concedersi con leggerezza.

Il rischio sistemico non è che l’IA diventi improvvisamente malvagia, una narrativa buona per Hollywood ma inutile per i decisori. Il rischio è molto più banale e quindi più pericoloso. È l’automazione della fiducia. Quando un sistema appare affidabile, l’essere umano tende a delegare. Quando la delega diventa prassi, la responsabilità si diluisce. In ambito militare, questa dinamica può tradursi in decisioni prese più velocemente, con meno frizione, meno dubbi, meno discussione. Non perché l’IA sia infallibile, ma perché sembra sicura. E quando il risultato ha un impatto sulla sicurezza nazionale, l’errore non è più un bug. È un incidente strategico.

C’è un lato positivo, ed è giusto riconoscerlo per onestà intellettuale. Regole condivise, anche deboli, possono creare un linguaggio comune. Possono ridurre decisioni dettate dal panico, offrire un riferimento quando la pressione aumenta. In una crisi, sapere che esiste almeno un consenso nominale su certi limiti può evitare escalation inutili. Ma questo funziona solo se i principali attori riconoscono quel linguaggio come rilevante. Quando gli assenti sono proprio quelli che definiscono il ritmo dell’innovazione, il rischio è che le regole diventino un’etichetta rassicurante, buona per i comunicati stampa e per le coscienze, ma irrilevante sul campo.

Il vertice REAIM mostra una tensione che va oltre la Spagna e oltre questi venti principi. È la tensione tra sicurezza IA e competizione geopolitica. Tutti vogliono sistemi più affidabili, più controllabili, più allineati. Nessuno vuole essere il primo a rallentare se il rivale accelera. È il dilemma classico della sicurezza, amplificato da una tecnologia che premia la velocità, la scala e l’accesso ai dati. Parlare di armi autonome e governance dell’intelligenza artificiale senza affrontare questa asimmetria significa raccontare solo metà della storia.

C’è anche un elemento di ipocrisia strutturale che vale la pena evidenziare. I governi chiedono prudenza mentre finanziano programmi che premiano la rapidità di integrazione dell’IA nei sistemi di difesa. Le aziende parlano di responsabilità mentre competono su chi lancia il modello più potente. Tutti invocano guardrail, ma pochi sono disposti a mettere limiti verificabili. È una partita a scacchi in cui ogni giocatore chiede regole, purché non riducano la propria libertà di manovra.

La domanda finale non è se l’IA militare sarà regolata. È se lo sarà prima o dopo un incidente serio. La storia suggerisce che le vere regole nascono quasi sempre dopo, non prima. Nel frattempo, i paesi più piccoli devono decidere se firmare dichiarazioni che promettono sicurezza o se investire nel correre più veloce, sperando di non inciampare. È una scelta cinica, ma reale. E mentre discutiamo di principi, il software continua a migliorare, ad apprendere, a essere integrato in catene decisionali sempre più critiche.

Forse la lezione più scomoda del REAIM è proprio questa. Nell’era dell’IA militare, la sicurezza non è più solo una questione di controllo delle armi, ma di controllo della fiducia. Fiducia nei modelli, nei processi, nei partner, negli alleati. Senza i principali attori al tavolo, quella fiducia resta fragile. E un sistema fragile, per definizione, non diventa più sicuro solo perché qualcuno ha scritto venti principi ben intenzionati. Diventa solo più elegante nel raccontarsi che andrà tutto bene.

News https://www.reuters.com/business/aerospace-defense/us-china-opt-out-joint-declaration-ai-use-military-2026-02-05/?utm_source=Generative_AI&utm_medium=Newsletter&utm_campaign=amazon-s-ai-spend-could-change-which-jobs-survive&_bhlid=3e9ee5e118cc9d35ed31fca6e6bf1787ef1c2435