Martedì è accaduta una scena che, fino a pochi anni fa, sarebbe sembrata fantascienza giuridica: una delle aziende più potenti del pianeta, Microsoft, si è presentata davanti a un tribunale federale per sostenere la richiesta di una startup di intelligenza artificiale, Anthropic, nel tentativo di bloccare temporaneamente una decisione del United States Department of Defense. Non è soltanto un caso legale. È il sintomo di una trasformazione più ampia, quasi geologica, nel rapporto tra potere tecnologico e potere statale.
Il cuore della vicenda è apparentemente tecnico. Il Pentagono ha classificato la tecnologia di Anthropic come rischio per la catena di approvvigionamento, impedendo che venga utilizzata in contratti con il Dipartimento della Difesa. La startup ha reagito denunciando quella decisione come una ritorsione politica dopo aver chiesto garanzie sul fatto che la propria tecnologia non venisse impiegata per armi completamente autonome o per sistemi di sorveglianza domestica su larga scala. In altre parole, una disputa sul perimetro etico dell’intelligenza artificiale si è trasformata in una battaglia legale con implicazioni economiche da decine di miliardi di dollari.
Nel documento depositato in tribunale, Microsoft sostiene che l’azione del Pentagono potrebbe introdurre un nuovo rischio sistemico per tutte le aziende tecnologiche che lavorano con il governo federale. La frase sembra innocua, ma tradotta dal linguaggio legale significa qualcosa di molto più brutale: se Washington può tagliare fuori un fornitore AI con una decisione amministrativa improvvisa, ogni investimento nel settore diventa politicamente fragile.
In Silicon Valley, fragilità è una parola che non piace. Gli investitori preferiscono parlare di “moat”, fossati competitivi, vantaggi strutturali difficili da replicare. Tuttavia il fossato più profondo, nel business dell’intelligenza artificiale, non è tecnologico ma regolatorio. Chi controlla l’accesso ai contratti governativi controlla una delle fonti di finanziamento più importanti dell’intero ecosistema.
La decisione del Pentagono non arriva in un vuoto storico. Negli ultimi dieci anni il rapporto tra aziende tecnologiche e apparato militare statunitense è diventato sempre più complesso. Nel 2018 Google si ritirò dal progetto militare Maven dopo una rivolta interna dei dipendenti, un episodio che segnò uno spartiacque culturale nella Silicon Valley. Da quel momento le aziende hanno cercato di bilanciare due forze opposte: la pressione morale dei propri ingegneri e l’attrazione economica dei contratti governativi.
Anthropic nasce proprio in quel contesto. Fondata da ex ricercatori di OpenAI, la società ha costruito il proprio brand sulla sicurezza e sull’allineamento dei modelli AI. Il suo modello linguistico, Claude AI, è spesso presentato come un esempio di “constitutional AI”, un approccio progettato per limitare comportamenti pericolosi o non etici.
In teoria questo dovrebbe renderla un partner ideale per il governo. In pratica la questione è più complicata. Se un’azienda insiste su limiti rigidi all’uso militare della propria tecnologia, il Pentagono potrebbe interpretarlo come una vulnerabilità operativa. L’intelligenza artificiale militare richiede flessibilità, ambiguità e, talvolta, una certa tolleranza per zone grigie etiche.
Il risultato è una tensione quasi filosofica. Da una parte la narrativa della Silicon Valley secondo cui l’AI deve essere sviluppata in modo responsabile. Dall’altra la logica militare secondo cui ogni tecnologia strategica deve poter essere utilizzata senza restrizioni quando la sicurezza nazionale lo richiede.
Microsoft si trova in una posizione delicata. L’azienda è diventata negli ultimi anni uno dei principali fornitori tecnologici del governo statunitense, con contratti cloud multimiliardari attraverso Microsoft Azure. Allo stesso tempo ha costruito una rete di partnership con aziende AI emergenti, tra cui Anthropic.
Se Anthropic venisse esclusa dai contratti del Pentagono, l’effetto domino potrebbe colpire direttamente l’ecosistema cloud su cui molti di questi sistemi sono distribuiti. La preoccupazione espressa da Microsoft nel documento legale è quindi perfettamente razionale. Non si tratta di difendere una startup idealista. Si tratta di difendere la stabilità dell’intero mercato.
A rendere il caso ancora più esplosivo è il contesto politico. Anthropic sostiene che la decisione del Pentagono sia una ritorsione dell’amministrazione di Donald Trump dopo il rifiuto della startup di garantire un accesso illimitato alla propria tecnologia per determinati usi militari. Se questa accusa venisse confermata in tribunale, il precedente sarebbe devastante.
Significherebbe che la politica può intervenire direttamente nella selezione dei fornitori tecnologici sulla base della loro disponibilità a collaborare con progetti sensibili. Non è un’ipotesi completamente nuova. Durante la Guerra Fredda il governo statunitense esercitava un controllo molto più diretto sulle aziende tecnologiche strategiche.
La differenza oggi è la scala economica. Il mercato globale dell’intelligenza artificiale è stimato in trilioni di dollari nei prossimi decenni. Le aziende che costruiscono modelli fondamentali non sono semplici fornitori. Sono infrastrutture cognitive dell’economia digitale.
Una decisione del Pentagono che ridefinisce chi è “affidabile” nella supply chain AI potrebbe quindi avere effetti globali. I partner internazionali del governo americano, dalle agenzie NATO ai ministeri della difesa europei, osservano attentamente questi sviluppi. La classificazione di un fornitore come rischio di sicurezza tende a propagarsi rapidamente attraverso le alleanze.
Nel frattempo anche altri attori tecnologici hanno scelto di intervenire nel caso. Ricercatori legati a Google e OpenAI hanno depositato memorie simili a sostegno della posizione di Anthropic. Non è un gesto di solidarietà altruistica. È un segnale di autodifesa collettiva.
Quando l’apparato statale inizia a definire criteri opachi per l’esclusione di fornitori tecnologici, tutte le aziende del settore diventano potenziali bersagli. L’intelligenza artificiale è ormai considerata una tecnologia dual use, al pari del nucleare o dei semiconduttori avanzati. Questo significa che ogni decisione regolatoria può avere implicazioni strategiche.
La vicenda rivela anche un’altra dinamica meno visibile ma altrettanto importante. Silicon Valley sta lentamente scoprendo che il potere politico non è più un semplice fattore esterno da gestire con lobbying e pubbliche relazioni. Sta diventando una variabile strutturale del business model.
Per decenni le grandi piattaforme digitali hanno prosperato in un ambiente relativamente deregolamentato. L’innovazione veniva celebrata come un bene pubblico quasi automatico. L’AI sta cambiando questa narrativa. Quando una tecnologia ha il potenziale di influenzare la sicurezza nazionale, la neutralità regolatoria diventa un lusso.
Una vecchia battuta circola nei corridoi della Silicon Valley: “Ogni startup sogna di cambiare il mondo finché non scopre che il mondo ha avvocati”. Nel settore dell’intelligenza artificiale quella battuta sta diventando una descrizione operativa della realtà.
Il processo tra Anthropic e il Pentagono potrebbe diventare uno dei casi legali più importanti dell’era dell’AI. Non tanto per il risultato immediato, ma per il precedente che potrebbe stabilire. Se il tribunale concederà l’ordinanza restrittiva temporanea richiesta da Anthropic, invierà un messaggio chiaro: le decisioni di sicurezza nazionale non possono essere utilizzate come strumenti di pressione commerciale.
Se invece il Pentagono dovesse prevalere, le aziende tecnologiche dovranno accettare una nuova regola del gioco. Collaborare con il governo significherà accettare una supervisione politica molto più intensa sull’uso delle proprie tecnologie.
In entrambi i casi, una cosa appare evidente. L’era romantica dell’intelligenza artificiale come pura innovazione scientifica è finita. L’AI è diventata una questione di geopolitica, diritto e potere industriale.
La Silicon Valley ama raccontarsi come una comunità di ingegneri visionari che costruiscono il futuro. Tuttavia il futuro, come spesso accade, si decide molto meno nei laboratori e molto più nelle aule di tribunale.
In fondo la storia dell’innovazione tecnologica è piena di episodi simili. Le ferrovie del XIX secolo furono plasmate da regolatori e tribunali tanto quanto dagli ingegneri. Internet stesso nacque da un progetto militare prima di diventare la piattaforma commerciale più importante della storia moderna.
L’intelligenza artificiale non farà eccezione. Ogni riga di codice scritta in un laboratorio di ricerca avrà, prima o poi, una conseguenza legale o politica.
Gli investitori preferiscono ignorare questo dettaglio. L’hype dell’AI funziona molto meglio quando si parla di modelli sempre più intelligenti e di startup valutate miliardi. Le battaglie giudiziarie non entrano facilmente nei pitch deck.
Tuttavia la realtà è più brutale. La prossima fase della rivoluzione dell’intelligenza artificiale non sarà guidata soltanto dagli algoritmi, ma dai tribunali federali, dai regolatori e dalle istituzioni militari.
Chi costruisce tecnologia può anche fingere di ignorarlo. Il mercato, prima o poi, si occuperà di ricordarglielo. Con gli interessi.