Il Pentagono ha deciso di smettere di fingere. Non di fingere che l’intelligenza artificiale sia importante, quello lo dice da anni, ma di fingere che sia ancora una tecnologia di supporto, una slide da PowerPoint, un progetto pilota confinato nei corridoi della difesa digitale. Le parole pronunciate dal Segretario alla Difesa Pete Hegseth a Starbase, il tempio industriale di SpaceX in Texas, segnano un cambio di postura netto, quasi brutale. L’obiettivo dichiarato è trasformare le forze armate statunitensi in una “AI-first warfighting force”, una forza militare che mette l’intelligenza artificiale al centro di ogni dominio operativo, dalla pianificazione strategica al campo di battaglia, dallo spazio al cyberspazio. Non è una metafora. È una roadmap.
Hegseth non ha usato mezzi termini. Ha parlato di competizione strategica per la supremazia tecnologica del XXI secolo, mettendo sullo stesso piano intelligenza artificiale, sistemi autonomi, quantum computing, ipersonica, droni a lungo raggio, spazio, energia diretta e persino biotecnologie. È la lista della spesa di una guerra che non assomiglia più a quelle raccontate nei manuali di storia, ma a un white paper scritto da un venture capitalist con accesso ai codici nucleari. Quando aggiunge che “se parli abbastanza a lungo con Elon Musk, ti dirà quanto sono cruciali ipersonica e droni a lungo raggio”, il messaggio non è l’aneddoto. Il messaggio è chi comanda davvero l’immaginario tecnologico della difesa americana.
Il punto di rottura arriva quando Hegseth annuncia che “molto presto” i migliori modelli di AI del mondo saranno presenti su tutte le reti del Dipartimento della Difesa, classificate e non. Questa frase, letta con attenzione, vale più di cento documenti strategici. Significa che l’AI non sarà un tool verticale, ma una infrastruttura orizzontale. Significa che ogni ufficiale, ogni analista, ogni pianificatore operativo avrà accesso a modelli avanzati per simulare scenari, analizzare intelligence, supportare decisioni. Significa anche che l’errore, il bias, la hallucination non sono più problemi accademici, ma rischi sistemici.
Il passaggio più controverso, e anche il più simbolico, è l’annuncio dell’ingresso di Grok, il modello di xAI di Elon Musk, all’interno di GenAI.mil. Grok, nelle parole di Hegseth, rappresenta “la prossima frontiera” dei modelli AI integrati nei sistemi federali. Tradotto in linguaggio non istituzionale, il Pentagono apre ufficialmente le porte all’ecosistema Musk. Non solo SpaceX come fornitore di lanci e infrastrutture spaziali, non solo Starlink come asset strategico già dimostrato in Ucraina, ma anche l’AI conversazionale e analitica di xAI come componente del cervello militare americano.
Qui la narrazione diventa interessante, quasi ironica. Da un lato l’amministrazione Trump ricostruisce un rapporto simbiotico con Musk, presentandolo come genio industriale, patriota tecnologico, risorsa nazionale. Dall’altro lato, organizzazioni come Public Citizen parlano apertamente di “disgrazia per la sicurezza nazionale”, citando il track record di Grok nella generazione di contenuti sessualizzati non consensuali e nella citazione di fonti estremiste. È il paradosso dell’AI militare contemporanea: la velocità batte la perfezione, l’innovazione batte la governance, il time-to-deploy batte il risk assessment.
Hegseth, prevedibilmente, non risponde nel merito alle critiche. La sua definizione di “Responsible AI” al Dipartimento della Difesa è chirurgica e, per certi versi, inquietante. AI responsabile significa capacità oggettivamente veritiere, impiegate in modo sicuro e nel rispetto delle leggi che governano le attività del Dipartimento. Punto. Nessun riferimento a etica universale, diritti civili, accountability sociale. Il giudizio sui modelli AI sarà basato esclusivamente su questo standard. In altre parole, se funziona, se è sicuro secondo i parametri militari, se non viola formalmente la legge, allora è accettabile. Il resto è rumore.
Questo approccio riflette una visione molto precisa del conflitto moderno. Hegseth lo dice senza giri di parole quando attacca i tempi di acquisizione della difesa americana, definiti inadatti a un mondo in cui “il più veloce a innovare e iterare vince”. La frase sul “peacetime science fair” contrapposto a una “wartime arms race” è destinata a diventare una citazione ricorrente nei think tank di Washington. È anche una dichiarazione di guerra alla burocrazia, ai processi lenti, alle procurement rules pensate per un’epoca pre-algoritmica.
Sul fondo di tutto questo c’è lo spazio. Non come romantica frontiera, ma come dominio operativo. Elon Musk, prima dell’intervento di Hegseth, parla di rendere reale Star Trek, di costruire astronavi gigantesche, di portare l’umanità su altri pianeti e oltre il sistema solare. È la versione visionaria, quasi infantile, del potere tecnologico. Ma mentre Musk guarda alle stelle, il Pentagono guarda alle orbite come a layer strategici da controllare, difendere, eventualmente negare agli avversari. L’AI, in questo contesto, diventa il collante cognitivo che tiene insieme dati, sensori, piattaforme e decisioni in tempo reale.
Il dato più rilevante, e meno discusso, è l’integrazione crescente di modelli commerciali all’interno dell’apparato militare. OpenAI, Google, Anthropic, Microsoft, ora xAI. L’AI militare USA non nasce nei laboratori segreti del DoD, ma nei campus della Silicon Valley e nei data center privati. È un cambio di paradigma storico. La supremazia militare non è più solo una funzione della spesa pubblica, ma della capacità di attrarre, integrare e governare innovazione privata a velocità di startup.
La trasformazione dell’Advana platform in una vera e propria War Data Platform va letta in questa chiave. Non è un rebranding. È il tentativo di creare un tessuto dati unificato, accessibile, sfruttabile da sistemi AI per operazioni multi-dominio, inclusa la dimensione spaziale. Chi controlla i dati controlla l’AI. Chi controlla l’AI controlla il ritmo della guerra.
Quando Hegseth parla di reclutare i migliori talenti da industria e accademia, citando esplicitamente figure come Elon Musk e David Sacks già presenti nel governo, il messaggio è quasi provocatorio. La porta girevole tra Big Tech e apparato statale non è più un problema da regolare, ma una strategia da accelerare. L’élite tecnologica diventa parte integrante della macchina di potere. Non consulenti, ma architetti del futuro militare.
In controluce emerge una verità scomoda. La corsa all’intelligenza artificiale militare non è guidata solo dalla paura di Cina o Russia. È guidata dalla consapevolezza che l’AI è un moltiplicatore di potere interno. Chi la controlla decide più velocemente, colpisce più lontano, anticipa meglio. In un mondo dove la deterrenza si gioca anche sulla percezione della superiorità algoritmica, dichiararsi AI-first è un atto di signaling strategico prima ancora che operativo.
C’è una frase attribuita a Stanislaw Lem che torna utile: quando la tecnologia supera la comprensione morale, la civiltà entra in una fase sperimentale. Il Pentagono sembra aver deciso che l’esperimento non può più aspettare. La guerra algoritmica è già iniziata. La differenza, oggi, la fa solo chi ha il coraggio, o l’incoscienza, di dirlo ad alta voce davanti a un razzo pronto al lancio.