L’idea che un algoritmo possa premere, anche solo indirettamente, il pulsante che mette fine alla civiltà è passata dal cinema apocalittico alla pianificazione strategica reale. Non servono robot senzienti che decidono di distruggere il mondo, basta un errore di calcolo, una correlazione sbagliata, un’eccessiva fiducia umana in un sistema che sembra più intelligente di quanto sia. L’intelligenza artificiale è ormai dentro la catena nucleare, non come protagonista ma come consigliere digitale in grado di filtrare, ordinare e interpretare informazioni che un cervello umano non potrebbe gestire in tempo reale. Il rischio, però, è che quella stessa velocità diventi il detonatore di decisioni prese troppo in fretta, magari basate su un segnale mal interpretato o un’anomalia nei dati.
Negli Stati Uniti, così come in Russia e in Cina, l’integrazione di AI nei sistemi di comando e controllo nucleare è già in corso. Il Pentagono parla di modernizzazione, un termine elegante per dire che si stanno sostituendo i vecchi radar e i centri di comando analogici con piattaforme digitali alimentate da reti neurali e modelli predittivi. È un’evoluzione inevitabile, dicono, perché la minaccia moderna si muove a una velocità incompatibile con la lentezza umana. Peccato che la stessa argomentazione sia quella che, da decenni, alimenta la logica della deterrenza automatizzata. Più si accelera la catena di comando, meno spazio resta al dubbio, e il dubbio è l’unico fattore che, finora, ha evitato l’apocalisse.
Il problema non è l’intelligenza artificiale che “decide” di lanciare missili. Il problema è l’uomo che le crede. È la cosiddetta automation bias, la tendenza a fidarsi della macchina anche quando la macchina sbaglia. I militari parlano di “decision support systems”, ma nella pratica questi strumenti diventano arbitri impliciti di ciò che è reale o falso. Quando un sistema ti mostra un tracciato radar che indica un attacco in corso, hai pochi minuti per decidere se reagire o aspettare. In quel momento, la probabilità di scegliere di credere alla macchina è più alta di quanto chiunque ammetta.
Non è un’ipotesi accademica. Nel 1979 un errore di software convinse i computer del NORAD che era in corso un attacco nucleare sovietico. Zbigniew Brzezinski, allora Consigliere per la Sicurezza Nazionale, stava per chiamare il presidente per autorizzare la risposta. Ci vollero minuti drammatici per scoprire che si trattava di un test di simulazione caricato per errore. Nel 1983 fu la volta del celebre Stanislav Petrov, l’ufficiale sovietico che vide il sistema segnalare un lancio americano e decise, per istinto, di non reagire. Scoprì dopo che il “nemico” era un riflesso solare sulle nuvole. Due volte, il mondo si è salvato grazie a un essere umano che ha scelto di non fidarsi della macchina.
Ora immaginate la stessa scena con un sistema di AI che analizza in tempo reale centinaia di feed satellitari, radar e sensori acustici, elaborando miliardi di dati al secondo. L’essere umano non ha il tempo materiale di verificare tutto. Se l’algoritmo segnala un attacco, la pressione politica e psicologica per reagire immediatamente sarà enorme. La catena di comando, ottimizzata per la rapidità, potrebbe diventare una trappola logica. Il cervello umano è lento, ma è anche l’unico in grado di dubitare.
C’è poi il fattore più subdolo: la vulnerabilità informatica. Un modello di AI è tanto intelligente quanto i dati che lo nutrono. Se quei dati vengono “avvelenati” da un avversario, o manipolati per introdurre falsi pattern, il sistema può interpretare un’esercitazione o una tempesta geomagnetica come un attacco nucleare. Non serve un missile per far esplodere una guerra, basta una riga di codice malevolo in un dataset addestrato in modo sbagliato. Nel linguaggio della sicurezza, si chiama data poisoning, e oggi è una delle tecniche più efficaci per sabotare i sistemi di difesa automatizzati.
Un altro rischio, più psicologico che tecnico, riguarda la mentalità stessa dei modelli di AI. Alcuni esperimenti, condotti in simulazioni strategiche, hanno mostrato che le AI tendono a comportarsi in modo più aggressivo dei decisori umani, aumentando la probabilità di escalation. Senza paura, senza memoria del dolore o del rischio, l’algoritmo massimizza la “vittoria” nel modo più efficiente. L’efficienza, però, è la qualità meno desiderabile in un contesto dove la sopravvivenza dipende dal tempo guadagnato nel non fare nulla.
A ottant’anni da Hiroshima, il paradosso è che l’umanità rischia una guerra nucleare non per odio o follia, ma per eccesso di fiducia nella propria tecnologia. L’AI è diventata un amplificatore delle nostre debolezze cognitive. Ci illude di poter gestire la complessità quando in realtà la spinge oltre il limite della comprensione umana. Ogni volta che un generale parla di “decisioni basate sui dati”, traduce inconsciamente la propria paura in linguaggio tecnico. La verità è che la deterrenza ha sempre funzionato grazie all’incertezza, non alla precisione.
C’è un altro aspetto, quasi filosofico. L’intelligenza artificiale non prova paura. Non percepisce il peso morale dell’annientamento, non sente l’odore del ferro fuso o la voce dei sopravvissuti. In una catena decisionale dove quel sentimento viene sostituito da un calcolo statistico, il rischio è che la prudenza venga scambiata per inefficienza. Il terrore nucleare, paradossalmente, è stato finora il miglior deterrente. Togliere l’emozione dal processo significa togliere anche la responsabilità. E senza responsabilità, l’errore non ha più conseguenze, solo output.
Il futuro della deterrenza automatizzata è già scritto nei bilanci militari: miliardi investiti in “AI-enabled command and control”, sistemi che promettono di prevenire l’errore umano rendendo la guerra più “intelligente”. Ma non c’è nulla di intelligente nel sostituire il giudizio con la statistica. Il pericolo non è che l’intelligenza artificiale decida di distruggerci, è che noi le lasciamo decidere cosa è reale e cosa no. E a quel punto, sarà troppo tardi per distinguere un falso positivo da una fine autentica.
In un’epoca in cui si celebra l’automazione come antidoto all’imperfezione umana, resta solo una verità scomoda: la paura, il dubbio e l’errore di valutazione sono stati finora le uniche barriere tra noi e la catastrofe. Nessun algoritmo, per quanto raffinato, potrà mai sostituire la saggezza istintiva di chi, in un bunker sovietico nel 1983, decise che la macchina si sbagliava. Forse l’umanità ha bisogno di meno intelligenza artificiale e di più intelligenza emotiva per sopravvivere a se stessa.