Nel tardo pomeriggio di venerdì, in un contesto segnato da una frattura evidente tra il Dipartimento della Difesa degli Stati Uniti e l’azienda di intelligenza artificiale Anthropic, il CEO di OpenAI, Sam Altman, ha annunciato pubblicamente la firma di un accordo tra la sua compagnia e il Pentagono per l’uso di tecnologie AI nei network classificati del Dipartimento della Difesa. Questo avveniva subito dopo che il governo federale aveva imposto a tutte le agenzie di smettere di usare tecnologie di Anthropic, definendo la società un “rischio per la catena di approvvigionamento” e ritirando fatto ogni contratto di fornitura, in reazione alla sua resistenza a rimuovere limitazioni etiche su due fronti fondamentali: la sorveglianza di massa e le armi autonome senza supervisione umana.
Altman ha dichiarato che secondo lui e i vertici di OpenAI il nuovo accordo include tutele e “linee rosse” contro l’utilizzo della tecnologia per: sorveglianza di massa interna, sistemi d’arma autonomi senza controllo umano e decisioni automatizzate ad alto rischio come sistemi di “social credit”. Ha anche aggiunto che questi limiti sono riflessi nelle leggi e nelle politiche attuali, e che il Pentagono ha accettato di inserirli nell’accordo formale.
Dal punto di vista della comunicazione pubblica, OpenAI ha voluto incorniciare questo risultato come una vittoria per la sicurezza e l’etica dell’AI, ribadendo l’intenzione di chiedere al governo di offrire gli stessi termini a tutti i principali laboratori di intelligenza artificiale.
Tuttavia, contestualmente a questa narrazione ufficiale, sorgono interrogativi sostanziali sulla portata reale di queste “linee rosse”, perché nei testi diffusi (o nelle ricostruzioni disponibili) l’accordo non contiene proibizioni esplicite e indipendenti contro certi usi, ma piuttosto clausole che richiamano il rispetto della legge vigente e di policy interne del Dipartimento.
Dove sta il nodo reale: legge vigente vs uso potenziale
Per capire cosa è accaduto bisogna fare un passo indietro e considerare un elemento chiave: la legge attuale negli Stati Uniti non definisce specificamente norme esaustive sull’uso dell’AI per sorveglianza o per sistemi letali autonomi. Questo significa che, se un contratto ripete l’obbligo di rispettare la legge vigente, e la legge vigente non ha specifiche limitazioni o le ha interpretate in senso molto ampio nel passato, allora la portata reale delle limitazioni contrattuali è, al massimo, pari alla portata delle leggi — non oltre.
Nel dibattito pubblico e tra gli analisti critici, questo è l’elemento più contestato: usare il principio del “rispetto della legge vigente” come unico vincolo lascia le porte aperte a ciò che è considerato tecnicamente legale, inclusa la raccolta e l’analisi di dati su larga scala — qualcosa che in passato è già stato giustificato dalle agenzie di intelligence sotto leggi come l’Executive Order 12333 o il Foreign Intelligence Surveillance Act, che sono state interpretate in modi molto ampi per giustificare programmi di sorveglianza estesa.
In altre parole, se l’Amministrazione o il Dipartimento decidesse che è “tecnicamente legale” raccogliere e correlare dati su larga scala, una clausola che dice “rispetta solo le leggi” non impedisce automaticamente un uso di fatto invasivo delle tecnologie.
Non solo: la formulazione delle clausole sul divieto di uso per armi autonome o sorveglianza non contiene definizioni tecniche vincolanti, ma si rifà spesso a concetti generali tipo “non usato in modo indipendente dove la legge richiede controllo umano”, il che lascia ampi margini interpretativi.
La scena più ampia: Anthropic, OpenAI e la pressione politica
Anthropic, guidata da Dario Amodei, si è distinta per essere stata l’unica grande azienda AI a rifiutare i termini proposti dal Dipartimento, sostenendo pubblicamente che non avrebbe ceduto su divieti netti contro la sorveglianza di massa di cittadini statunitensi e l’uso dei suoi modelli in armi completamente autonome. Amodei ha argomentato più volte che l’attuale quadro giuridico non è adeguato per governare un’intelligenza artificiale che ha capacità enormemente superiori rispetto a quelle contemplate dalle leggi esistenti, e che per questo servono clausole contrattuali esplicite.
La reazione del governo è stata drastica: il presidente ha ordinato l’interruzione immediata di ogni uso di tecnologie di Anthropic da parte delle agenzie federali e il Pentagono ha indicato la società come “supply chain risk” per la sicurezza nazionale, una designazione rara e senza precedenti per una compagnia americana.
Questa escalation ha polarizzato l’opinione pubblica nel settore tecnologico, con centinaia di dipendenti di OpenAI e Google che hanno firmato lettere aperte di sostegno ad Anthropic e di critica alla posizione di compromesso delle loro stesse aziende.
Allo stesso tempo, alcuni commentatori politici e figure dell’amministrazione hanno diffuso messaggi virulenti contro l’idea di consentire a società private di dettare termini d’uso alle forze militari, sostenendo che “solo il Presidente e il Congresso dovrebbero determinare come l’intelligenza artificiale viene impiegata nella difesa”. Questa retorica è diventata parte integrante della narrazione pubblica, soprattutto nei canali social degli esponenti governativi.
Il dilemma tecnico-giuridico: sicurezza vs responsabilità
Il punto di fondo, che sta emergendo da queste controversie in maniera sempre più chiara, è che non esiste attualmente un framework giuridico completo che definisca cosa sia sorveglianza di massa digitalizzata, come l’AI possa essere usata nei sistemi di intelligence o quali garanzie tecniche debbano esserci per impedire decisioni autonome letali senza supervisione effettiva.
Questa lacuna normativa lascia spazio a interpretazioni e alla contrattazione di clausole come quelle che vediamo nell’accordo di OpenAI: tecnicamente possono sembrare “guardrail”, ma se non sono supportate da definizioni precise, audit indipendenti e meccanismi di enforcement automatizzati, restano fragili davanti all’interpretazione operativa di chi controlla i sistemi e le policy del Dipartimento della Difesa.
Il caso di OpenAI e del suo contratto con il Pentagono non è solo una questione di PR o di retorica corporativa. È una finestra su come il diritto, la politica e la tecnologia convergono in un terreno altamente incerto, dove la stessa nozione di “uso legale” può essere estesa fino quasi a neutralizzare le protezioni invocate. La distinzione tra un vincolo contrattuale solido e un principio generale di compliance giuridica può sembrare sottile, ma nei fatti è il confine tra un’intelligenza artificiale usata per la difesa in senso restrittivo e un’intelligenza artificiale integrata in sistemi che possono sorvegliare o influenzare popolazioni su larga scala.
In altre parole, mentre la narrazione pubblica parla di red lines e di “guardrail”, la sostanza di questi accordi potrebbe non essere sufficiente per garantire che quelle linee non vengano superate dal potere interpretativo di chi ha l’autorità finale di decidere quali usi sono “lawful”. Questo posiziona il dibattito politico, legale e tecnologico su un terreno destinato a diventare centrale nei prossimi anni, non solo negli Stati Uniti ma a livello globale.