La vicenda che ha portato quasi quaranta ricercatori di aziende come OpenAI, Google e Anthropic a firmare un amicus curiae in difesa di Anthropic contro il United States Department of Defense racconta molto più di una semplice disputa legale. Racconta, in realtà, la trasformazione di un’intera industria che sta lentamente scoprendo il lato politico del proprio potere. Quando anche figure di primo piano come Jeff Dean decidono di schierarsi pubblicamente in una causa federale, significa che la tensione tra ricerca scientifica, industria tecnologica e sicurezza nazionale ha superato una soglia critica. Silicon Valley ama raccontarsi come un laboratorio di innovazione. Washington, invece, continua a considerarla un asset strategico da controllare. La frizione tra queste due visioni era inevitabile.

La causa nasce da una decisione sorprendente del Dipartimento della Difesa americano: classificare Anthropic come “rischio per la catena di approvvigionamento”. Una formula burocratica che nel linguaggio della sicurezza nazionale equivale quasi a una quarantena industriale. Nel mondo della difesa statunitense, una designazione simile produce effetti immediati. Appalti congelati. Partnership sospese. Fornitori che si ritirano per evitare problemi con il governo. In altre parole, un marchio tossico che può erodere rapidamente il valore di una società tecnologica. Anthropic sostiene che la decisione non abbia basi tecniche solide e che rappresenti una ritorsione politica legata alle sue posizioni sulle armi autonome. Se la tesi fosse confermata, il caso diventerebbe un precedente esplosivo: il governo che punisce un’azienda tecnologica per le sue posizioni etiche sull’intelligenza artificiale.

Il cuore del problema, tuttavia, non è giuridico. È tecnico. Gli scienziati che hanno firmato il documento spiegano in modo sorprendentemente diretto ciò che molti nel settore sanno ma preferiscono non dire troppo ad alta voce. Gli attuali sistemi di intelligenza artificiale non sono affidabili abbastanza per controllare armi completamente autonome. L’affermazione può sembrare banale, ma è una piccola bomba epistemologica in un’industria che negli ultimi tre anni ha venduto al mondo l’idea di un’intelligenza artificiale quasi universale. I modelli linguistici generativi funzionano bene finché restano dentro i loro dataset e i loro pattern statistici. Appena entrano in ambienti nuovi, imprevedibili o fisicamente complessi, il comportamento diventa meno deterministico.

Qualunque ingegnere che abbia lavorato seriamente con modelli di machine learning conosce il problema del distribution shift. Un sistema addestrato su certi dati può degradare rapidamente quando incontra contesti diversi. In un chatbot la conseguenza è una risposta sbagliata. In un sistema d’arma autonomo la conseguenza può essere una tragedia. La differenza tra le due situazioni è una questione di etica e responsabilità politica. Anthropic, nel suo modello di governance, ha introdotto alcune linee rosse molto esplicite sull’uso militare dell’intelligenza artificiale. Linee rosse che molti ricercatori condividono. Non tanto per idealismo pacifista, quanto per semplice realismo ingegneristico.

Il documento depositato in tribunale descrive tre problemi tecnici che la retorica commerciale sull’AI tende a minimizzare. Il primo riguarda l’affidabilità nel riconoscimento dei bersagli. I modelli visivi e multimodali sono straordinariamente potenti, ma non sono infallibili. Errori di classificazione continuano a verificarsi anche in sistemi altamente addestrati. Il secondo problema riguarda le allucinazioni. I modelli generativi sono progettati per produrre output plausibili, non necessariamente veri. Il terzo problema è ancora più inquietante: l’opacità dei processi decisionali. Le cosiddette catene di pensiero interne ai modelli non sono sempre accessibili o interpretabili dagli operatori umani.

Un algoritmo che prende decisioni letali senza una spiegabilità robusta rappresenta un incubo per qualunque sistema legale. Il diritto internazionale umanitario presuppone responsabilità umane. Le macchine, per definizione, non possono essere processate in tribunale. Questa tensione giuridica spiega perché molti ricercatori nel campo dell’AI safety considerano le armi autonome una tecnologia prematura. Non impossibile, ma certamente non pronta.

La risposta del Dipartimento della Difesa, tuttavia, riflette una logica diversa. Gli apparati militari non ragionano in termini di perfezione tecnologica. Ragionano in termini di vantaggio strategico. Se un sistema è imperfetto ma offre un vantaggio rispetto agli avversari, diventa automaticamente interessante. La storia militare è piena di esempi simili. I primi radar erano imprecisi. I primi missili balistici erano instabili. I primi droni avevano capacità limitate. Ogni tecnologia militare nasce incompleta e viene perfezionata sul campo.

Questa logica è ciò che spaventa molti ricercatori della Silicon Valley. Il timore non riguarda tanto l’uso dell’AI in ambito militare, che esiste già da anni in sistemi di analisi dati e intelligence. Il timore riguarda la delega decisionale completa alle macchine. In altre parole, il passaggio da sistemi di supporto decisionale a sistemi decisionali autonomi. Una linea sottile ma decisiva.

Il paradosso è che l’industria dell’intelligenza artificiale sta vivendo una fase finanziaria estremamente fragile proprio mentre il dibattito politico diventa più intenso. Anthropic rappresenta un caso emblematico. Secondo i dati emersi nei documenti giudiziari, l’azienda ha generato oltre cinque miliardi di dollari di ricavi dalla sua fondazione, ma ha speso più di dieci miliardi per addestrare e gestire i suoi modelli. La matematica è brutale. Anche le aziende più promettenti del settore AI bruciano capitale a una velocità che ricorda le dot-com del 1999.

Il costo computazionale dell’intelligenza artificiale non è un dettaglio. È la variabile strategica che definisce l’intero settore. Addestrare modelli di frontiera richiede data center giganteschi, hardware specializzato e quantità colossali di energia. In altre parole, un’industria nata come software sta rapidamente trasformandosi in un’industria infrastrutturale. Alcuni economisti hanno iniziato a descriverla come una nuova forma di industria pesante digitale.

Dentro questo contesto, una designazione governativa come “rischio per la supply chain” può diventare devastante. I documenti della causa mostrano effetti immediati. Un cliente che forniva sistemi AI alla Food and Drug Administration ha abbandonato il modello Claude per un concorrente, causando una perdita superiore a cento milioni di dollari. Due accordi con istituzioni finanziarie, per oltre ottanta milioni, sono entrati in una zona grigia contrattuale. In un settore che vive di crescita esponenziale e fiducia degli investitori, questo tipo di shock reputazionale può cambiare le prospettive di un’azienda in poche settimane.

La reazione dei ricercatori che hanno firmato l’amicus curiae suggerisce che una parte significativa della comunità scientifica teme un precedente pericoloso. Se il governo può etichettare un’azienda tecnologica come rischio per la sicurezza nazionale a causa delle sue posizioni sul dibattito pubblico, il confine tra regolazione e pressione politica diventa estremamente sottile. Silicon Valley ha sempre difeso una narrativa libertaria. Innovazione libera, creatività ingegneristica, mercati aperti. Quella narrativa funziona bene finché la tecnologia resta lontana dalle infrastrutture critiche dello Stato. L’intelligenza artificiale, invece, sta diventando una tecnologia geopolitica.

La storia offre analogie interessanti. Negli anni quaranta il progetto Manhattan trasformò la fisica teorica in uno strumento di potere statale. Negli anni settanta la crittografia diventò una tecnologia strategica regolata dalle leggi sull’esportazione. Oggi l’intelligenza artificiale si trova nello stesso territorio ambiguo tra scienza e geopolitica. Gli ingegneri scrivono codice. Gli stati vedono strumenti di potere.

Molti ricercatori della Silicon Valley sembrano scoprire solo ora questa realtà. Una frase circola spesso nei corridoi delle conferenze sull’AI safety: “La tecnologia neutrale non esiste”. Il contesto politico decide sempre come viene usata. Questa banalità filosofica diventa improvvisamente concreta quando il Pentagono entra nella conversazione.

Il caso Anthropic potrebbe quindi diventare uno spartiacque. Non tanto per l’esito legale, che probabilmente richiederà anni, quanto per il segnale politico che invia al settore tecnologico. Le aziende di intelligenza artificiale non operano più in un ecosistema puramente commerciale. Operano in un campo di tensione tra capitale di rischio, regolazione governativa e competizione geopolitica tra potenze.

Qualcuno nella Silicon Valley comincia a rendersene conto con un certo ritardo. Per decenni l’industria tecnologica ha creduto di poter cambiare il mondo restando politicamente neutrale. Una fantasia affascinante ma storicamente ingenua. Le tecnologie che ridisegnano il potere globale finiscono sempre dentro la sfera della politica.

Il risultato è una nuova fase dell’economia digitale. Le aziende AI stanno diventando simultaneamente startup, infrastrutture strategiche e potenziali strumenti militari. Una combinazione che rende ogni decisione tecnica anche una decisione geopolitica.

Nel frattempo, un dettaglio curioso emerge da tutta questa storia. Gli stessi ricercatori che negli ultimi anni hanno contribuito all’esplosione dell’hype sull’intelligenza artificiale ora stanno spiegando in tribunale quanto questi sistemi siano ancora imperfetti. La Silicon Valley vive spesso di narrazioni iperboliche. Quando arriva il momento delle responsabilità legali, la retorica dell’intelligenza quasi umana lascia spazio a un linguaggio molto più prudente.

La lezione implicita è quasi ironica. L’intelligenza artificiale promette di automatizzare molte decisioni umane. Tuttavia, quando le decisioni diventano politicamente sensibili, gli esseri umani tornano improvvisamente al centro della scena. La tecnologia può essere potente, ma la governance resta inevitabilmente umana. E profondamente conflittuale.