Quello che sta succedendo alle Nazioni Unite è quasi surreale: in un colpo solo l’intelligenza artificiale è stata messa nello stesso club di armi nucleari e agenti chimici, come se fosse una questione di deterrenza strategica e non un software che oggi genera testi e immagini per TikTok e domani decide chi vive e chi muore in un teatro di guerra.

Quando un organo come il Consiglio di Sicurezza inizia a parlare di “red lines” globali è perché qualcuno ha già intuito che la tecnologia non è più sotto controllo. Geoffrey Hinton e Yoshua Bengio, definiti i “padrini” dell’AI, non parlano per amore di retorica accademica, ma perché conoscono dall’interno la traiettoria di un settore che corre più veloce delle istituzioni che dovrebbero regolamentarlo. Se dieci Premi Nobel firmano un appello con loro, il messaggio è semplice: non bastano i panel, servono trattati vincolanti.

Oltre 200 leader globali hanno sottoscritto un documento che sembra scritto in modalità guerra fredda: divieto assoluto per le armi autonome letali, blocco delle AI capaci di auto-replicarsi e interdizione dell’uso dell’intelligenza artificiale nella catena di comando nucleare. C’è da chiedersi come mai queste tre categorie siano così specifiche.

Perché sono gli scenari concreti già sul tavolo dei governi. Non è fantascienza ma pianificazione strategica. Un algoritmo che replica se stesso senza supervisione umana è già stato testato in ambienti controllati. Sistemi autonomi in grado di selezionare e neutralizzare obiettivi sono già operativi nei laboratori militari. E l’idea di inserire un livello di AI nella gestione dei sistemi nucleari non è una distopia, ma una tentazione reale per stati che cercano di ridurre il rischio di “errore umano”.

Il nodo è che la tecnologia riduce la distanza tra decisione e azione. La velocità diventa un fattore di potere. Nella logica delle grandi potenze, rinunciare a sperimentare un’AI militare significa regalare vantaggio competitivo a un rivale.

Lo stesso dilemma che abbiamo visto con le armi nucleari: tutti sapevano che accumulare arsenali poteva portare all’annientamento, eppure nessuno si è fermato. Oggi il lessico che circola alle Nazioni Unite include espressioni come “digital colonialism”, un termine che fa capire che la battaglia non è solo militare ma economica e geopolitica. Se l’AI rimane concentrata nelle mani di pochi stati e delle Big Tech che li supportano, il resto del mondo si troverà non solo senza sovranità digitale ma letteralmente colonizzato da algoritmi che decidono cosa produrre, cosa comunicare e cosa consumare.

Il paragone con le armi nucleari regge fino a un certo punto. Quelle si potevano contare, verificare, monitorare. L’AI è più subdola, penetra nelle filiere industriali, nell’informazione, nei mercati finanziari e nella guerra cognitiva. Non la puoi mettere in un bunker e contare le testate. Questo rende ancora più urgente l’idea di un trattato globale che stabilisca regole e linee rosse, ma rende anche meno probabile che venga rispettato. Ogni governo cercherà di massimizzare il proprio margine di manovra, e chi si muove per primo potrebbe imporsi sugli altri. La storia insegna che la corsa agli armamenti non si ferma con la diplomazia, si ferma quando la minaccia diventa tangibile per tutti.

La vera domanda è se i cittadini, le imprese e le democrazie hanno il coraggio di imporre la governance prima che la tecnologia diventi ingovernabile. Oggi si parla tanto di responsabilità aziendale e “AI for good”, ma senza vincoli normativi globali tutto resta retorica. Le imprese che sviluppano AI hanno incentivi enormi a muoversi più in fretta dei competitor, e la politica interna di ciascun paese spesso premia la velocità piuttosto che la prudenza. È quindi ingenuo pensare che un trattato multilaterale arrivi per puro spirito di cooperazione.

Se si dovesse scommettere, le probabilità dicono che vinceranno gli interessi nazionali. Ma c’è un paradosso. Proprio come nel caso nucleare, la consapevolezza collettiva del rischio potrebbe spingere le potenze a un accordo minimo per evitare il peggio. Non per amore dell’umanità, ma per paura reciproca. Il problema è che nel frattempo il settore privato corre, e non ha nessuna intenzione di aspettare che l’ONU si metta d’accordo.

La provocazione finale è che forse la società civile dovrebbe smettere di chiedere “più etica” e iniziare a chiedere veri divieti. Un algoritmo che può scatenare un conflitto non è una feature da negoziare ma una minaccia esistenziale. La politica potrà continuare a discutere se serve un trattato o meno, ma la tecnologia non aspetta, replica se stessa e non conosce confini.

La domanda resta: chi decide prima, gli stati con i loro egoismi o la tecnologia con la sua logica implacabile?