La notizia, se la si legge di fretta, pare una banale ristrutturazione burocratica: l’AI Safety Institute del Dipartimento del Commercio americano cambia nome e si trasforma nel Center for AI Standards and Innovation. Ma sotto questa vernice lessicale si cela una vera rivoluzione geopolitica mascherata da riforma amministrativa. Non è più questione di “sicurezza”, bensì di supremazia. E soprattutto: non è più una questione globale, ma eminentemente americana. “Dominanza sugli standard internazionali”, come ha dichiarato il Segretario al Commercio Howard Lutnick. Una frase che potrebbe uscire da un meeting di strategia militare più che da un piano di governance tecnologica.
Ciò che era nato sotto Biden come AI Safety Institute — creatura tecnico-etica pensata per regolare i rischi sistemici dell’intelligenza artificiale — oggi viene riposizionato per servire un’agenda molto diversa: impedire regolamentazioni estere “onerose e inutili”, combattere minacce cibernetiche e biologiche, e soprattutto identificare “influenze maligne” straniere. Chiamiamola pure “AI America First”.
In questa mutazione genetica istituzionale, la parola “safety” scompare, e con essa tutto un impianto di governance improntato alla trasparenza e al rischio sistemico. Al suo posto, “standards”, un termine che in apparenza suona neutrale, tecnico, asettico. Ma come ogni ingegnere del software sa bene, chi definisce gli standard controlla il futuro. E quando a definirli è il governo americano — bypassando organismi multilaterali — il messaggio al mondo è chiarissimo: l’AI deve parlare inglese. Meglio ancora: deve parlare americano.
Ironia della sorte, l’istituto originale era nato anche con la benedizione delle big tech statunitensi, da OpenAI a Anthropic, felici di sedersi al tavolo delle regole purché esse venissero scritte tra pochi e senza disturbo europeo. Ma ora il gioco è cambiato: la preoccupazione non è più costruire barriere contro l’ignoto algoritmico, bensì abbattere quelle normative che potrebbero ostacolare l’espansione commerciale delle AI stars & stripes. Sicurezza? Una scusa per i deboli.
Lutnick è stato cristallino: il focus sarà su “rischi dimostrabili”, come cyberattacchi, armi biologiche, e modelli sviluppati da “avversari” stranieri. Una categoria nella quale ricade direttamente DeepSeek, il modello linguistico cinese che nei mesi scorsi ha prodotto più ansia nei boardroom californiani che in qualsiasi centro di ricerca accademico. In sostanza, ciò che è pericoloso non è più tanto ciò che l’intelligenza artificiale può fare, ma chi la costruisce. Una logica da Guerra Fredda vestita con l’abito da gala dell’innovazione.
C’è da chiedersi se stiamo davvero assistendo a un’epoca d’oro dell’innovazione, o piuttosto a una corsa all’oro dove le regole si riscrivono a favore del più veloce. Il fatto che nel suo primo giorno alla Casa Bianca Trump abbia cancellato un ordine esecutivo di Biden sulla sicurezza dei sistemi AI dice tutto. A nulla sono valse le bozze di linee guida diffuse a inizio 2025, che parlavano di contenuti pericolosi come armi biologiche, ma anche di minacce più pervasive come la produzione automatica di CSAM. La logica trumpiana non ha tempo per i dettagli morali: se una tecnologia genera business, non va frenata — va alimentata. Preferibilmente con carbone, come suggerisce l’ultima strizzata d’occhio alla lobby fossile per alimentare i data center.
La ciliegina sulla torta è la moratoria decennale su ogni regolamentazione statale in materia di AI. Dieci anni di mano libera per ogni start-up, colosso o fondo sovrano che voglia sperimentare qualsiasi cosa, ovunque negli Stati Uniti. Alcuni repubblicani storcono il naso? Pazienza. Il futuro, come l’AI, non aspetta i dissidenti.
La nuova strategia, in apparenza centrata sull’“innovazione”, nasconde in realtà un approccio muscolare al potere tecnologico. Gli standard non servono più a proteggere gli utenti, ma a rafforzare le catene di valore americane, estendendo l’influenza del sistema giuridico USA sui mercati globali. La parola “burdensome” — usata per descrivere le regolamentazioni estere — è rivelatrice: se non obbedisci agli standard americani, stai semplicemente rallentando l’innovazione. O peggio, aiutando il nemico.
In questo nuovo lessico, l’etica scompare, e con essa la visione cosmopolita che aveva animato i primi dibattiti internazionali sull’AI governance. L’intelligenza artificiale non è più una sfida per l’umanità, ma un’arma geopolitica. E i nuovi “centri di innovazione” sono arsenali semantici.
Non è difficile immaginare gli effetti collaterali. La disintegrazione di ogni tentativo multilaterale di regolare l’AI, a partire da quelli in corso all’ONU e nell’OCSE. L’emulazione da parte di altri paesi, che potrebbero decidere di erigere i propri AI firewall. E, soprattutto, l’ulteriore marginalizzazione degli utenti, ridotti a cavie inconsapevoli in un’eterna beta version dell’economia digitale.
Ma tutto ciò, nel breve periodo, poco importa. Il nuovo motto è: meno regole, più modelli. Meno Bruxelles, più Silicon Valley. Meno sicurezza, più scale. E se nel mezzo ci scappa qualche disinformazione di Stato, qualche modello tossico o una bella catastrofe automatizzata… beh, ci penseremo dopo. Magari con un nuovo centro. Con un altro nome. Ma sempre con gli stessi obiettivi.