C’è un elefante blu che si aggira nelle stanze che tutti fanno finta di non notare: l’uso dell’AI nelle guerre. Si dice che la seconda guerra mondiale è stata un volano per la realizzazione di nuove invenzioni, cosa di per sè opinabile se ci si riflette un po’, però oggi la stessa cosa si dice per lo sviluppo dell’AI nei teatri di guerra, ma è veramente così? Premessa: mi sforzerò di parlare della tecnologia senza fare commenti personali, cercherò di evitare descrizioni che indicano la crudeltà, l’assenza di moralità e di etica di chi progetta queste armi.
Un cambio di paradigma
L’Intelligenza Artificiale, sistemi elettronici a basso costo e l’accesso allo spazio sempre più semplice ha fatto fare un salto in avanti nell’organizzazione delle operazioni militari. Un vero e proprio cambio di paradigma nella creazione di strategie di combattimento. Non si tratta di una semplice modernizzazione, ma di una rivoluzione che ridefinisce il modo in cui vengono condotti i conflitti armati.
Gaza e Ucraina come Banchi di Prova
Se andiamo indietro a vedere come è stata organizzata l’invasione dell’Ucraina da parte della Russia e di come è oggi possiamo constatare, prove alla mano, cosa abbia bloccato i russi da oramai 3 anni e mezzo: droni di sorveglianza, droni a guida autonoma o semi autonoma, sistemi di riconoscimento satellitari. L’Ucraina, dopo aver subito la prima ondata, ha utilizzato massicciamente strumenti di ricognizione a basso costo, spesso riconvertendo giocattoli o droni da ripresa, ricordi Andrii Pokrasa che usava il suo drone giocattolo per stanare i soldati russi?
Questa velocità di pensiero e riadattamento degli Ucraini ha fatto subito un’enorme differenza rispetto al modo di procedere dei Russi, rimasti più vicini ad una strategia del XX secolo che ad una guerra moderna. Il periodo di tempo che va dai voli di Pokrasa alla Missione Spiderweb del 2 giugno scorso dimostra che in soli 3 anni gli Ucraini si sono evoluti più velocemente dei Russi nelle tecnologie AI applicate ai droni.
Se sulla cartina geografica facciamo un salto dallo scacchiere ucraino verso sud, ci troviamo di fronte ad un altro conflitto, quello di Gaza, dove Israele, grazie ad investimenti decennali nel settore, ha utilizzato abbastanza pesantemente questa tecnologia soprattutto per il riconoscimento automatico degli obiettivi, grazie a due sistemi principali.
Il primo si chiama Lavender ed è stato progettato per l’identificazione di potenziali membri di organizzazioni terroristiche analizzando vasta gamma di dati (social media, geolocalizzazione, relazioni personali). L’altro, in grado di riconoscere i palazzi anche non avendo coordinate precise, si chiama Gospel (o Habsora), ed è stato progettato per identificare infrastrutture e strutture sospette tramite dati satellitari, immagini termiche e segnali elettromagnetici (come wi-fi, telefonini e altro).
Margini di errore e danni collaterali
L’impiego dell’intelligenza artificiale in ambito militare solleva in ogni caso interrogativi che vanno ben oltre la mera efficacia operativa. Un sistema come Lavender, con un margine di errore dichiarato del 10% — il doppio o il triplo di quanto normalmente tollerato in contesti non bellici — dimostra quanto sia ancora lontano dall’essere infallibile. Se a questo si aggiunge l’uso di munizioni non guidate, capaci di radere al suolo intere abitazioni, il rischio di colpire civili innocenti diventa tutt’altro che marginale.
L’AI può forse “indicare” un bersaglio, ma non può comprenderne il contesto umano, la presenza di bambini, famiglie, o vite innocenti dietro una parete. Non valuta le conseguenze, non distingue l’intenzionalità dall’ambiguità, non sente la responsabilità morale dell’errore.
Siamo quindi chiamati a una riflessione urgente e profonda: possiamo davvero delegare a un algoritmo, imperfetto per definizione, il potere di decidere chi vive e chi muore? E se non possiamo, quanto siamo disposti a tollerare gli effetti collaterali pur di affidare alla tecnologia anche l’ultima parola sulla guerra?
Droni: proliferazione e automazione
L’invasione dell’Ucraina da parte della Russia ci ha mostrato l’uso massiccio e diffuso di droni da battaglia, dai Bayraktar TB2 turchi usati dall’Ucraina agli Shahed-136 iraniani impiegati dalla Russia.
La loro facilità di costruzione e il loro basso costo contrasta con il costo e la produzione di armi di “vecchia concezione”: basta un drone circa 400 dollari per distruggere un carro armato da milioni di dollari. E di droni ne posso costruire migliaia al mese in piccole fabbriche, mentre per fare un carro armato serve una filiera costosissima.
Questo li rende sacrificabili, replicabili in scala, agili. Ovviamente i costruttori di armi non sono stati con le mani in mano e quindi sono stati introdotti anche droni completamente automatizzati capaci di localizzare, riconoscere, identificare e poi annientare i droni nemici senza intervento umano, come il Fortem DroneHunter F700 Interceptor degli Stati Uniti che è stato usato dall’Ucraina. Di fatto uno scontro tra Shahed-136 e F700 Interceptor è stato il primo combattimento tra macchine automatiche su un campo di battaglia.
AI per l’Intelligence e il decision-making strategico
Dove l’Intelligenza Artificiale sta facendo realmente la differenza, più che nell’identificazione dei bersagli in sé, è nell’analisi e nell’elaborazione di dati su larga scala — soprattutto in tempo reale. L’esercito ucraino, ad esempio, sfrutta l’AI per processare enormi quantità di dati open source, come immagini satellitari, contenuti pubblici e post sui social media, con l’obiettivo di geolocalizzare truppe, mezzi e infrastrutture militari russe.
Un ruolo chiave in questo processo lo gioca Palantir Technologies, azienda statunitense specializzata nell’analisi dei big data. I suoi software — tra cui il sistema Skykit — incrociano dati provenienti da fonti diverse, dai satelliti ai feed sociali, per fornire ai comandi militari scenari e opzioni strategiche in tempo reale. Una capacità che il CEO della stessa Palantir ha rivendicato con una dichiarazione tanto potente quanto controversa: “Siamo responsabili della maggior parte degli attacchi che avvengono sul suolo ucraino”.
In questo contesto, l’intelligenza artificiale non si limita più a supportare il conflitto: lo orchestra, lo accelera e lo rende più mirato. Ma solleva anche interrogativi profondi su chi, in ultima istanza, prende davvero le decisioni e su quanto controllo umano resti nei processi di guerra digitalizzata.
AI per la guerra cibernetica e la lotta alla disinformazione
L’Intelligenza Artificiale si è affermata come una delle tecnologie chiave nella difesa contro gli attacchi informatici russi e nella lotta alla disinformazione. Aziende come Mantis Analytics impiegano modelli linguistici di grandi dimensioni (LLM) e tecniche di elaborazione del linguaggio naturale (NLP) per analizzare testi, riconoscere pattern e intercettare tendenze in tempo reale.
Il Ministero della Trasformazione Digitale ucraino ha stretto partnership strategiche con le principali aziende tecnologiche della Silicon Valley — tra cui Microsoft, Amazon, Google, Starlink, Clearview AI e Palantir — ricevendo supporto sotto forma di software, soluzioni cloud, strumenti di cybersicurezza e persino capacità offensive digitali.
Questo coinvolgimento diretto ha portato le Big Tech ad acquisire un peso geopolitico sempre più paragonabile a quello dei tradizionali produttori di armi. Non a caso, anche le industrie belliche stanno investendo sempre più nell’intelligenza artificiale, consapevoli che una difesa informatica efficace può ridurre sensibilmente la necessità di interventi militari sul campo.
L’accelerazione dello sviluppo AI Militare: oltre i conflitti attuali
Gli Stati Uniti stanno investendo cifre ingenti (3 miliardi di dollari solo per il bilancio 2024 richiesti dal Pentagono) e hanno lanciato programmi ambiziosi come il CCA (Collaborative Combat Aircraft), NGAD (Next Generation Air Dominance), e il “Replicator” , che puntano a sviluppare uno stormo di duemila caccia pilotati da macchine. Non sono i soli a progettare strumenti autonomi, anche noi Italiani, insieme a UK e Giappone, stiamo sviluppando un ecosistema digitale volante chiamato GCAP.
In un contesto bellico sempre più digitalizzato, le caratteristiche fisiche del singolo velivolo — come la velocità massima o il carico utile — stanno progressivamente perdendo centralità. A determinare il reale valore operativo di un aereo non sarà più la sua forza bruta, ma la potenza di calcolo di cui dispone e la sua capacità di integrarsi in reti di comunicazione avanzate, connesse a veicoli autonomi, droni e stazioni satellitari.
La corsa agli armamenti AI
Indubbiamente il successo dell’AI sta accelerando una nuova corsa agli armamenti focalizzati sulle tecnologie autonome, capaci di adattarsi in un batter d’occhio ad un cambio costante di operazioni, in risposta al mondo circostante.
Per questo stiamo vivendo l’inizio di una neo guerra fredda tra USA e Cina, dove l’AI è percepita come elemento chiave della propria superiorità militare. La Cina ha già mostrato di saper fare droni capaci di raggrupparsi in sciami, auto-guidarsi, li vediamo ogni tanto negli spettacoli di luci che ci capitano nei reel di Instagram. Adattarli a eseguire lanci di bombe o per la sorveglianza è il passo successivo.
Convergenza civile-militare e il ruolo delle Big Tech
Si è soliti dire che la Seconda guerra mondiale abbia generato una serie di innovazioni poi adottate nella vita civile. In realtà, molte di quelle invenzioni esistevano già: fu il conflitto a imprimere un’accelerazione decisiva alla loro industrializzazione.
Un esempio emblematico è quello degli antibiotici: Alexander Fleming scoprì la penicillina nel 1928, ma fu solo la necessità urgente di curare i soldati feriti che portò, nel 1940, alla produzione su larga scala grazie al lavoro di Chain e Florey.
Oggi stiamo assistendo a una dinamica analoga, ma capovolta: la guerra attinge direttamente al mondo civile per ottenere un vantaggio strategico. Le tecnologie nate per migliorare la vita quotidiana vengono rapidamente adattate a fini militari.
Un segnale forte in questo senso arriva dagli Stati Uniti, dove quattro esperti di tecnologia provenienti da aziende come Palantir, Meta e OpenAI sono stati nominati tenenti colonnelli nella nuova brigata tecnologica dell’Esercito americano, il Detachment 201.
Non sta a noi dire se questa notizia sia positiva o allarmante. Ma è certamente indicativa di un processo in atto: la crescente militarizzazione dell’innovazione civile e la trasformazione delle Big Tech in nuovi attori strategici, sempre più simili ai tradizionali commercianti di armi.
Le implicazioni etiche, legali e umanitarie urgenti: la questione della responsabilità
L’uso dell’AI in contesti bellici solleva questioni etiche. Quando un sistema AI commette un errore che porta a vittime civili, chi ne è responsabile?
É una domanda senza risposta nel quadro giuridico internazionale, ma a mio parere finirà che essendo uno strumento la responsabilità è di chi lo usa.
Resta poi aperta la questione cruciale della supervisione umana. Il principale limite dei sistemi di intelligenza artificiale non è tanto la capacità di calcolo, quanto la loro velocità — di gran lunga superiore a quella del ragionamento umano. Questo squilibrio rischia di ridurre il controllo umano a una mera formalità, trasformando gli operatori in semplici ratificatori di decisioni già prese dall’algoritmo.
Il pericolo è evidente: delegare all’AI scelte critiche senza un effettivo controllo umano significa accettare un modello operativo in cui l’errore, anche se drammatico, viene metabolizzato come un “danno collaterale inevitabile”. E, per ora, chi impiega queste tecnologie sembra mostrare scarso interesse nel mettere in discussione questo approccio.
Un altro tema centrale è il rischio di escalation. L’impiego di armi sempre più autonome, capaci di selezionare e colpire obiettivi senza intervento umano diretto, aumenta la possibilità di errori fatali e di una spirale di conflitto fuori controllo.
Ma quanto può reggere un sistema simile prima che sfugga del tutto di mano? Se un’arma autonoma dovesse identificare erroneamente come bersaglio una città in una nazione confinante — formalmente non coinvolta nel conflitto — potremmo ancora parlare di “incidente”? E se a questo errore seguisse la risposta automatica di un altro sistema d’arma autonomo, dove collocheremmo la responsabilità? Chi è colpevole? Chi risponde?
Domande che si scontrano con un vuoto normativo sconcertante. Le leggi e i trattati internazionali in materia di armi autonome sono ancora vaghi, deboli o, più spesso, inesistenti. Una lacuna che, nel momento in cui la tecnologia accelera più della diplomazia, rischia di diventare pericolosa tanto quanto le armi stesse.
L’AI cambia il “come” non il “cosa” della guerra
Dobbiamo essere pienamente consapevoli che, sebbene l’intelligenza artificiale non sia nata con una vocazione militare, sta rapidamente trasformando il modo in cui si combattono le guerre. Una delle conseguenze più profonde è la crescente distanza — tecnica, emotiva e morale — tra chi decide e chi subisce l’atto di forza. L’autonomia delle armi basate sull’AI può amplificare questa disumanizzazione, ma non elimina una verità fondamentale: l’atto di impiegare la forza resta, in ultima analisi, una decisione umana.
Non è l’arma a fare la guerra. La responsabilità dell’uso resta nelle mani di chi la controlla. E per quanto avanzata sia la tecnologia, incluso l’uso di sistemi intelligenti, essa continua a essere uno strumento nelle mani dell’uomo, soggetto — o almeno così dovrebbe essere — a principi etici, scelte politiche e diritto internazionale.
L’“elemento umano” non può e non deve essere rimosso dal cuore della decisione bellica. L’AI, come ogni altra tecnologia, è al servizio della volontà e della morale dell’uomo. È l’uomo, non l’algoritmo, il decisore primario.
L’AI è nata per creare strumenti che migliorano lo sviluppo di oggetti e processi della vita quotidiana. Dalla rapidità di identificazione delle malattie alla creazione di nuovi materiali, passando per i tool sugli smartphone e gli strumenti di sviluppo, l’AI ha il potenziale di trasformare positivamente la medicina, il lavoro, la ricerca e molti altri ambiti. Proprio per questo, il suo impiego dovrebbe essere prioritariamente dedicato a migliorare la qualità della vita e il progresso umano, piuttosto che a scopi militari o distruttivi.
.
Per concludere vi lascio un estratto da “L’inversione degli Zygon” del Doctor Who.
Francesco Contini, Data & Search Engine Expert, Founder Rubedo Data Solutions
Fonti principali
- https://www.agendadigitale.eu/sicurezza/luso-dellia-in-guerra-rivoluzione-tecnologica-e-rischi-globali/
- https://www.agendadigitale.eu/cultura-digitale/intelligenza-artificiale-in-guerra-in-ucraina-il-dado-e-tratto/
- https://www.agendadigitale.eu/cultura-digitale/col-digitale-la-guerra-e-radicale-cosi-ai-e-social-stanno-cambiando-i-conflitti/
- https://4cportal.ai/news_e_trend/ai-guerra-gaza/
- https://valori.it/wp-content/uploads/2024/04/Lintelligenza-artificiale-va-al-fronte.pdf
- https://www.irpa.eu/limpiego-dellintelligenza-artificiale-nei-conflitti-armati-problematicita-e-sviluppi-recenti/
- https://www.linkedin.com/pulse/lera-dellintelligenza-artificiale-nelle-guerre-luigi-maccallini-jmstf/