C’è un’immagine che vale più di mille slide di policy. Donald Trump che firma un ordine esecutivo sull’intelligenza artificiale, mentre David Sacks, zar dell’AI e delle criptovalute della Casa Bianca, osserva da vicino come un venture capitalist davanti a un term sheet particolarmente favorevole. Non è una scena neutra, né solo simbolica. È la fotografia di una strategia di potere che usa l’AI come leva geopolitica, industriale e costituzionale. La keyword qui è una sola, inevitabile e già tossica: ordine esecutivo intelligenza artificiale Trump. Tutto il resto ruota attorno a questo asse.

L’ordine esecutivo non abroga formalmente le leggi statali sull’AI. Sarebbe troppo semplice, e soprattutto incostituzionale. Ma fa qualcosa di più sofisticato e più pericoloso. Costruisce un meccanismo federale di pressione, disincentivo e punizione indiretta, trasformando fondi pubblici, enforcement regolatorio e interpretazioni creative del diritto commerciale in strumenti di preemption di fatto. Washington non dice agli Stati cosa non possono fare. Dice cosa rischiano di perdere se insistono.

Il bersaglio non è astratto. L’ordine cita esplicitamente la legge del Colorado sulla protezione dei consumatori in ambito AI, accusandola di un peccato capitale nel vocabolario della nuova teologia tecnologica trumpiana: vietare la cosiddetta discriminazione algoritmica. Secondo la Casa Bianca, impedire risultati con impatti differenziali sui gruppi protetti potrebbe costringere i modelli a produrre output falsi. Tradotto in linguaggio non ideologico, il messaggio è chiaro. Se un modello discrimina, è la realtà a essere discriminatoria, non l’algoritmo. Una tesi che farebbe sorridere anche un data scientist alle prime armi, se non fosse inscritta in un atto di governo federale.

Il cuore operativo dell’ordine è la creazione di una AI Litigation Task Force, guidata dal Dipartimento di Giustizia, con il mandato esplicito di fare causa agli Stati che osano legiferare in modo incompatibile con l’obiettivo supremo: sostenere e rafforzare il dominio globale degli Stati Uniti nell’intelligenza artificiale attraverso un framework nazionale minimamente oneroso. È una frase che sembra uscita da una brochure di acceleratore VC, ma che in realtà codifica una visione precisa. Regolazione come ostacolo. Diritti come frizione. Federalismo come inconveniente temporaneo.

La Federal Trade Commission viene arruolata in questo disegno con un compito chirurgico. Definire quando le leggi statali che richiedono modifiche agli output veritieri dei modelli AI possano essere considerate in conflitto con il divieto federale di pratiche commerciali ingannevoli. È un cortocircuito logico elegante nella sua brutalità. Se uno Stato chiede a un’azienda di correggere un modello per evitare discriminazioni, quella correzione potrebbe essere interpretata come inganno commerciale. Quindi lo Stato diventa il problema, non l’algoritmo.

Nel frattempo il Dipartimento del Commercio, guidato da Howard Lutnick, ha novanta giorni per produrre una lista di Stati colpevoli. Una blacklist regolatoria che non si limita alla retorica. Quelle giurisdizioni potrebbero perdere l’accesso ai fondi BEAD per la banda larga rurale. È difficile immaginare una leva più cinica. O accetti la linea federale sull’AI, o metti a rischio la connettività delle tue comunità. Federalismo a gettone, versione Silicon Valley.

Anche la FCC entra in gioco, con l’incarico di lavorare a standard federali di reporting e disclosure per i modelli AI che preemptino le leggi statali. La parola chiave è preempt. Non armonizzare, non coordinare. Sostituire. Centralizzare. Uniformare verso il basso, in nome dell’efficienza e della competitività globale. Un mantra che conosciamo bene da altri settori, dalla finanza alla privacy, e che raramente ha prodotto ecosistemi più sani.

C’è poi la sezione più interessante, e più inquietante, dell’ordine. La clausola di salvaguardia, vaga e apparentemente rassicurante, che afferma di non voler preemptare leggi statali altrimenti legittime su sicurezza dei minori, infrastrutture di calcolo e dati, uso dell’AI da parte dei governi statali e altri temi da determinarsi. Altri temi da determinarsi è una formula che in diritto pubblico equivale a dire fidatevi di noi. Storicamente, è una pessima idea.

Il contesto politico rende il quadro ancora più denso. Negli ultimi dodici mesi gli Stati americani hanno prodotto una quantità impressionante di proposte di legge sull’intelligenza artificiale. Un patchwork normativo, come lo chiama Trump, che secondo l’industria rende impossibile innovare. È vero che una frammentazione estrema crea costi di compliance elevati. È altrettanto vero che il Congresso avrebbe potuto intervenire con una legge federale chiara, democratica e costituzionalmente solida. Non lo ha fatto. Due tentativi di moratoria federale sulle leggi statali sono falliti, uno durante il dibattito sul Big Beautiful Bill, l’altro nel contesto del National Defense Authorization Act.

Quei tentativi, per quanto criticabili, sarebbero stati legittimi dal punto di vista costituzionale. Un ordine esecutivo che usa la minaccia finanziaria e l’enforcement selettivo per ottenere lo stesso risultato è invece un esperimento ai limiti del diritto amministrativo. Un laboratorio di potere che aggira il legislatore e ridisegna l’equilibrio federale per via amministrativa.

Il ruolo di David Sacks in questa architettura non è marginale. Formalmente è un dipendente governativo provvisorio. Sostanzialmente è il ponte diretto tra la Casa Bianca e l’élite di Silicon Valley. La sua influenza sulla politica tecnologica di Trump è evidente, e ha già prodotto frizioni con la base MAGA su temi come visti H1B, export di chip e, ovviamente, intelligenza artificiale. È una dinamica affascinante. Un presidente che parla il linguaggio del populismo, guidato da un consigliere che incarna il capitalismo tecnologico più puro.

Trump ha esplicitato la sua visione su Truth Social con la consueta delicatezza retorica. Un solo rulebook. Cinquanta Stati descritti come cattivi attori. L’AI che rischia di essere distrutta nella sua infanzia. È una narrativa potente, emotiva, ma profondamente semplicistica. L’innovazione non muore per eccesso di regole intelligenti. Muore per mancanza di fiducia, per backlash sociale, per crisi di legittimità. Ignorare questo aspetto è l’errore classico di chi guarda l’AI solo come una corsa tecnologica, non come un fenomeno socio economico.

La keyword ordine esecutivo intelligenza artificiale Trump non descrive solo un atto amministrativo. Descrive una filosofia. Centralizzare per accelerare. Deregolamentare per dominare. Punire il dissenso regolatorio come se fosse un sabotaggio industriale. Le keyword semantiche correlate, regolazione AI federale USA, preemption leggi statali AI e dominio globale dell’intelligenza artificiale, non sono slogan SEO. Sono le coordinate di una battaglia che definirà il prossimo decennio tecnologico.

C’è un’ironia sottile in tutto questo. L’America che ha sempre celebrato il federalismo come laboratorio di innovazione normativa ora lo tratta come un bug da eliminare. Gli Stati che sperimentano tutele per cittadini e consumatori diventano ostacoli alla grande visione nazionale. Silicon Valley ottiene ciò che il Congresso non ha voluto concedere, attraverso una scorciatoia esecutiva. È un capolavoro di realpolitik tecnologica, ma anche un precedente pericoloso.

Come diceva una vecchia massima attribuita a Clay Shirky, le istituzioni cercano di preservare i problemi che giustificano la loro esistenza. Qui siamo di fronte a qualcosa di diverso. Un’istituzione che crea un problema costituzionale per risolvere un problema di mercato. Funzionerà nel breve periodo. Ma nel lungo, come spesso accade quando si confonde velocità con strategia, il conto arriva sempre. E raramente è pagato da chi firma l’ordine.