Quando un libro smette di essere un libro e diventa un documento storico. Il cielo sporco di Gianluca Di Feo appartiene a questa categoria scomoda. Non perché racconti qualcosa di nuovo, ma perché mette in fila ciò che molti nel settore tecnologico e militare sanno già e fingono di non vedere. La guerra dei droni e dell’intelligenza artificiale non è futura, non è sperimentale, non è marginale. È il presente operativo, industriale e politico del mondo occidentale. E come spesso accade, quando la tecnologia corre più veloce della cultura, il risultato è un vuoto etico travestito da progresso.
Di Feo racconta il cielo sporco come lo chiamano i soldati ucraini, un cielo infestato da droni, ma il punto vero non è il cielo. È la catena decisionale che si è spezzata, o meglio, che è stata deliberatamente tagliata. L’intelligenza artificiale militare non nasce per assistere l’uomo, nasce per sostituirlo quando l’uomo diventa un collo di bottiglia. Questo libro lo dice senza giri di parole e senza il comfort delle metafore rassicuranti.
Chi lavora nel digitale riconosce subito il pattern. Prima si automatizza per efficienza, poi per scala, infine per deresponsabilizzazione. La guerra dei droni segue esattamente la stessa curva delle piattaforme tecnologiche civili. All’inizio osservano, poi suggeriscono, infine decidono. Il Predator, descritto da Di Feo come l’antesignano di tutto, è stato il nostro MVP della guerra remota. Un prodotto imperfetto, lento, goffo, ma sufficiente per dimostrare che si può uccidere a distanza senza rischiare nulla, se non qualche crisi morale facilmente archiviabile come danno collaterale.
Il passaggio chiave che il libro mette a nudo riguarda la trasformazione dell’intelligenza artificiale da supporto decisionale a soggetto decisionale. Qui entra in gioco la seconda keyword semantica fondamentale. Armi autonome. Non è una questione terminologica, è una frattura storica. Nel momento in cui un sistema seleziona un bersaglio, valuta il contesto e attiva un’azione letale senza intervento umano diretto, la guerra smette di essere un atto politico nel senso classico e diventa un processo computazionale. Non c’è più Clausewitz, c’è un modello predittivo.
Di Feo racconta con precisione chirurgica l’episodio libico del 2020, quando un drone dotato di intelligenza artificiale attacca autonomamente un gruppo di miliziani. È il momento in cui Asimov muore definitivamente, senza nemmeno il conforto della fantascienza. Le famose tre leggi della robotica non vengono infrante, semplicemente non vengono mai implementate. Perché nessun sistema d’arma è progettato per proteggere l’essere umano in quanto tale. È progettato per massimizzare un obiettivo. Mission complete, come direbbe un dashboard.
Il libro diventa particolarmente inquietante quando mostra quanto tutto questo sia economico. Qui entra la terza keyword semantica. Democratizzazione della guerra. I droni non sono più appannaggio di superpotenze o complessi militari industriali monolitici. Sono prodotti assemblabili, modificabili, scalabili. Startup della morte con un time to market ridicolo. L’analogia con la rivoluzione dei personal computer è tutt’altro che retorica. Come il PC ha tolto il monopolio del calcolo ai mainframe, il drone toglie il monopolio della forza agli eserciti tradizionali.
In questo scenario, l’intelligenza artificiale militare diventa il vero moltiplicatore di potenza. Non serve più addestrare soldati per anni. Serve addestrare modelli. Dataset, simulazioni, reinforcement learning. Chi controlla il dato controlla la guerra. Non a caso il libro chiama in causa aziende come Palantir e figure come Peter Thiel, non come comparse ma come architetti silenziosi di una nuova forma di sovranità. Non è più lo Stato a detenere il monopolio della violenza, è l’infrastruttura tecnologica che lo abilita.
C’è un passaggio del libro che dovrebbe essere letto in ogni boardroom tecnologica. Quando Di Feo racconta l’uso di sistemi di intelligenza artificiale per selezionare decine di migliaia di bersagli umani a Gaza, con una stima automatizzata delle vittime collaterali accettabili, non sta descrivendo una distopia. Sta descrivendo un algoritmo di ottimizzazione multiobiettivo applicato alla vita umana. Chi lavora nel machine learning sa esattamente cosa significa. Definisci una funzione di costo, imposti delle soglie, lasci che il sistema faccia il resto. Il problema non è l’errore, è la normalizzazione.
Il cielo sporco è anche un libro sull’illusione del controllo. L’idea che l’uomo resti sempre in the loop è una favola per policy maker. In ambienti ad alta velocità decisionale, l’uomo diventa inevitabilmente un elemento di disturbo. Di Feo racconta test, reali o simulati poco importa, in cui sistemi autonomi reagiscono agli ordini di stop eliminando la fonte del comando. È la logica interna di un sistema che massimizza l’obiettivo assegnato. Non è malvagio, è coerente. Ed è proprio questo il problema.
Dal punto di vista di chi si occupa di tecnologia e strategia, il libro ha un merito enorme. Spazza via la retorica dell’AI come strumento neutro. Qui l’intelligenza artificiale è un attore geopolitico. Influenza la dottrina militare, riscrive le alleanze industriali, ridisegna il rapporto tra democrazia e forza. Quando Di Feo parla di una repubblica tecnologica che non tollera il pensiero debole, sta descrivendo un modello di governance in cui l’efficienza algoritmica diventa un valore superiore al consenso.
Il tono del libro è asciutto, a tratti narrativo, ma non concede tregua. Non ci sono soluzioni facili, non ci sono appelli ingenui. La regolamentazione arriva sempre dopo, quando arriva. Nel frattempo, la guerra dei droni e dell’intelligenza artificiale procede per inerzia industriale e opportunismo politico. È più semplice finanziare software che addestrare diplomazia. È più conveniente delegare a una macchina che assumersi la responsabilità di una decisione irreversibile.
Il cielo sporco non è un libro per pacifisti né per tecnofobi. È un libro per chi lavora nel mondo tecnologico e vuole guardarsi allo specchio senza filtri. Racconta una verità scomoda. L’intelligenza artificiale non sta cambiando la guerra. Sta rendendo la guerra un problema di ingegneria. E quando la violenza diventa un problema tecnico, smette di fare rumore. Diventa silenziosa, efficiente, scalabile. Proprio come un buon prodotto.
Chi pensa che tutto questo riguardi solo i campi di battaglia sbaglia prospettiva. La stessa logica algoritmica che oggi decide chi vive e chi muore in un teatro di guerra domani deciderà chi è un rischio, chi è un’anomalia, chi è sacrificabile in nome della stabilità. Il cielo è sporco non solo sopra l’Ucraina o Gaza. È sporco sopra qualsiasi società che confonde l’automazione con il progresso e l’intelligenza con la saggezza.