Il dibattito internazionale sulla regolamentazione dei sistemi d’arma autonomi letali (LAWS) è molto più complesso e dinamico di una semplice dicotomia tra “vietare o non vietare”. Da anni gli Stati discutono, negoziano, si scontrano e si riavvicinano su un terreno di confini tecnologici, giuridici e morali che nessuna diplomazia fino a oggi è riuscita a mappare con chiarezza. Quel che emerge con forza è che la comunità internazionale non è realmente «bloccata» in senso statico, ma è piuttosto immersa in un processo multilaterale che sta ridefinendo l’idea stessa di guerra e legalità in presenza di intelligenza artificiale. La questione non è solo se vietare, ma come conciliare progressi tecnologici incontrollati con un ordine giuridico umanitario che resta fragile di fronte alla velocità dell’innovazione.
Alle Nazioni Unite, il Group of Governmental Experts (GGE) istituito sotto la Convenzione su alcune Armi Convenzionali (CCW) lavora da oltre un decennio per plasmare una normativa che sia realmente efficace; il mandato appena rinnovato chiede di formulare, per consenso, gli elementi di un possibile strumento internazionale entro il 2026. I negoziatori si confrontano su definizioni, ambiti d’applicazione e su cosa significhi mantenere un “controllo umano significativo” nelle decisioni di impiego della forza su sistemi che sfruttano algoritmi e sensori autonomi su vasta scala.
È un terreno ricco di fratture geopolitiche. La risoluzione 79/L.77 dell’Assemblea Generale dell’ONU, adottata con 166 voti favorevoli il 2 dicembre 2024, ha segnato un passo importante, invitando gli Stati a intensificare il dialogo sulle sfide umanitarie, etiche e di sicurezza legate alle armi autonome, pur senza ancora avviare negoziati formali per un trattato vincolante. I sostenitori di una regolamentazione stringente – includendo oltre 120 Paesi, ONG e organi internazionali – chiedono da anni un accordo che proibisca sistemi capaci di identificare e attaccare persone senza intervento umano diretto e che introduca obblighi chiari su accountability e responsabilità legale.
Ma le dinamiche diplomatiche sono spesso governate dalla regola del consenso, e qui emergono le divergenze più nette. Stati con forti capacità militari e industrie della difesa – come Stati Uniti, Russia e altri – hanno assunto posizioni più caute o addirittura contrarie a un bando preventivo, sostenendo che l’applicazione del diritto internazionale umanitario vigente sia sufficiente oppure che alcune forme di automazione possano addirittura ridurre errori umani. Queste posizioni non sono mere astrazioni ideologiche: riflettono interessi strategici concreti che frenano l’adozione di norme vincolanti.
Nei corridoi di Ginevra, l’impressione di stallo lascia il posto a una consapevolezza più sfumata: non è che non ci sia progressione, ma che le alternative normative considerate vanno ben oltre “vietare o non vietare”. Gli Stati stanno esplorando un ventaglio di strumenti, da impegni politici meno stringenti a norme operative che integrino l’applicazione delle leggi sui conflitti armati con requisiti di trasparenza e responsabilità nelle fasi di progettazione e uso di sistemi autonomi. Questo approccio plurale rischia sì di diluire la forza di un trattato vincolante, ma riflette anche una realtà politica in cui un testo giuridico troppo rigido potrebbe essere negoziato solo a scapito dell’inclusività o addirittura bloccato da veto di pochi attori influenti.
Le implicazioni vanno ben oltre il testo di un accordo ONU. In ogni briefing, intervista ufficiale e relazione tecnica emerge un nodo etico fondamentale: macchine che possono decidere la vita o la morte sollevano questioni di dignità umana, diritti fondamentali e controllo decisionale che nessun ordine militare o giuridico moderno ha mai dovuto affrontare in modo frontale. Organizzazioni come il Comitato Internazionale della Croce Rossa hanno ammonito che la prospettiva di sistemi capaci di agire senza supervisione umana diretta mina il principio stesso di responsabilità umana sul campo di battaglia e la capacità di applicare le regole di distinzione, proporzionalità e precauzione che sono il cuore del diritto internazionale umanitario. Nel contesto di conflitti contemporanei, con l’IA sempre più integrata in sensori, targeting e sistemi di comando e controllo, queste preoccupazioni non sono astratte: influenzano dibattiti sulla sicurezza, sulla tutela dei civili e sulla legittimità delle operazioni militari.
Non sorprende quindi che la regolamentazione dei LAWS sia diventata un tema di mobilitazione globale, non confinato alle stanze delle Nazioni Unite. Movimenti come Stop Killer Robots e numerose ONG di diritti umani insistono sulla necessità di una norma giuridica internazionale che proibisca sistemi privi di controllo umano significativo, puntando a superare un dibattito che altrimenti resterebbe confinato ai tecnocrati e agli uffici di strategia militare. Anche se non tutti gli Stati concordano su questo percorso, l’attenzione verso una regolamentazione più ampia – che includa aspetti di responsabilità, trasparenza e protezione dei diritti umani oltre le semplici nozioni di guerra – sta crescendo.
Il processo ONU sulla governance dei sistemi d’arma autonomi non somiglia a un semplice bivio con una sola risposta possibile. È piuttosto una corsa multilivello, con tappe istituzionali, pressioni civiche, interessi strategici e questioni etiche che si intrecciano, e con la scadenza della prossima revisione della CCW nel 2026 come un punto di verifica cruciale. In gioco non c’è soltanto una nuova legge internazionale, ma la capacità della diplomazia globale di rispondere a una tecnologia che sfida le nostre più profonde convinzioni su controllo, responsabilità e umanità.