Il weekend scorso ha dimostrato in modo plastico quanto l’intelligenza artificiale stia rapidamente spostando i confini del potere e della strategia, senza attendere permessi legislativi o protocolli diplomatici. Sabato mattina, mentre molti osservatori pensavano che la querelle tra Anthropic e il Pentagono fosse conclusa con la designazione della società come “supply-chain risk” da parte del Segretario alla Difesa Pete Hegseth, cento jet militari statunitensi decollavano diretti verso l’Iran, trasformando in secondaria ogni disputa contrattuale su Claude, l’IA della compagnia.

Nel frattempo, si scopriva che gli strumenti Claude erano stati utilizzati in operazioni di intelligence collegate all’attacco. Il Pentagono aveva già integrato profondamente Claude nei sistemi di valutazione delle minacce, identificazione dei target e simulazione dei conflitti. Si tratta di tecnologia sofisticata, capace di operare sotto blackout digitali quasi totali e di eseguire missioni chirurgiche su obiettivi ad altissimo valore, pur rimanendo completamente opaca al pubblico.

I commenti degli esperti suggeriscono scenari inquietanti: Hamza Chaudhry del Future of Life Institute parla di “dyadic automated warfare”, una guerra in cui due sistemi AI interagiscono attraverso azioni cinetiche, ottimizzando e rispondendo più velocemente di quanto qualunque decisione umana possa seguire. La conseguenza immediata riguarda la deterrenza nucleare: l’AI rende trasparenti le capacità di secondo colpo e riduce il tempo di reazione politico-militare, abbassando la soglia per aggressioni sotto soglia e rendendo fragili gli equilibri strategici tradizionali. Nessun quadro normativo internazionale è pronto a reggere questa pressione.

Il contratto di OpenAI con il Pentagono, lodato da Sam Altman come rispettoso delle “linee rosse”, resta ambiguo. Secondo l’azienda, Claude non dovrà partecipare a monitoraggi “unconstrained” dei cittadini americani, citando leggi come il Fourth Amendment, il National Security Act del 1947 e il FISA. La storia recente mostra però che i limiti legali sono estremamente malleabili: la sorveglianza post-11 settembre ha già aggirato vincoli analoghi, e il termine stesso di “unconstrained monitoring” non ha alcuna definizione giuridica ufficiale.

La decisione di Hegseth ha generato panico nel settore tecnologico: cosa significhi “any commercial activity” con Anthropic resta indefinito, mentre la società chiarisce che il vincolo vale solo per l’uso presso il Dipartimento della Difesa. Sullo sfondo, lo spettacolo sui social tra Emil Michael e Dario Amodei dimostra come ego e tatticismi personali spesso superino l’argomentazione razionale, anche quando in gioco ci sono decisioni che impattano il futuro della sicurezza nazionale.

Il tema della AI e della società più ampia non è meno urgente. Al Hopkins Forum, il dibattito “Will AI Make Work Obsolete?” ha messo di fronte posizioni opposte ma convergenti su un punto: Andrew Yang e Simon Johnson prevedono massicce perdite occupazionali e sconvolgimenti sociali se l’AI rimane incontrollata; Chris Hughes e Rumman Chowdhury mostrano invece scenari in cui l’AI potenzia il lavoro umano e migliora la vita, pur concordando che l’avidità aziendale incontrollata potrebbe condurre a scenari doomer.

Il quadro che emerge è chiaro: l’intelligenza artificiale si muove ormai tra precisione militare, influenza corporate e ambiguità normativa, correndo più veloce di qualunque struttura di governance. Ogni decisione, ogni contratto, ogni tweet pubblico rischia di trasformarsi in un atto strategico dal peso quasi esistenziale, mentre il mondo osserva, spesso senza capire davvero le regole del gioco.