Per la prima volta, Washington si sta avvicinando a una decisione reale su come regolamentare l’intelligenza artificiale — e la battaglia che si profila all’orizzonte non verte tanto sulla tecnologia quanto su chi ha il potere di regolamentarla. In mancanza di un standard federale significativo mirato alla sicurezza dei consumatori, molti Stati hanno colmato il vuoto legislativo introducendo decine di proposte per tutelare i cittadini dai rischi legati all’IA. Esempi emblematici includono la California, con la legge SB-53 sulla trasparenza e i rischi catastrofici, e il Texas, che ha passato il Responsible AI Governance Act per proibire l’uso intenzionale dannoso dei sistemi di IA.
Chi guida il fronte tecnologico grandi aziende della Silicon Valley e startup in crescita si è schierato con forza contro queste leggi statali. Il loro argomento è semplice: un mosaico di regolamentazioni diverse rende insostenibile l’innovazione. “Ci rallenta nella gara con la Cina”, ha detto Josh Vlasto, co-fondatore del PAC “Leading the Future”. Non a caso, l’industria sostenuta anche da figure influenti all’interno della Casa Bianca — insiste sull’adozione di uno standard nazionale o, peggio, su nessuno standard.
Da questa posta in gioco emerge un tentativo concreto di impedire ai singoli Stati di legiferare autonomamente. Al Congresso si sta valutando l’inserimento, nell’ambito del National Defense Authorization Act (NDAA), di norme che bloccherebbero alle autorità statali il diritto di adottare regolamenti sull’IA. Parallelamente, una bozza trapelata di un ordine esecutivo della Casa Bianca prevede la costituzione di una “AI Litigation Task Force” incaricata di contestare le leggi statali in tribunale, etichettandole come “onerose”, oltre a spingere agenzie federali come la FCC e la FTC verso standard che sovrascrivano le regole locali. Al centro dell’operazione normativa c’è David Sacks, consigliere per IA e cripto, che — secondo la bozza — avrebbe autorità di co-lead su un quadro giuridico unificato, superando anche l’Office of Science and Technology Policy.
Dietro questa narrativa si consuma l’argomento del “patchwork”: una pluralità di leggi statali diverrebbe un freno per le imprese, che dovrebbero gestire regole diverse da costa a costa. È la stessa linea sostenuta da molti nel mondo high-tech, dove PAC pro-IA alcuni finanziati da Andreessen Horowitz, OpenAI e altre realtà hanno stanziato centinaia di milioni per promuovere una politica nazionale unificata. Leading the Future già ha lanciato una campagna da 10 milioni di dollari perché il Congresso adotti una legge federale che annulli le regolamentazioni statali. Secondo loro, molti legislatori negli Stati non avrebbero le competenze tecniche per decidere su sistemi complessi come i modelli di IA.
A chi li contrasta, la risposta è netta. Un gruppo bipartisan di procuratori generali di vari Stati ha scritto al Congresso per avvertire che la pretesa di normare tutto a livello federale rischia di lasciare cittadini esposti ai danni dell’IA. Tra le preoccupazioni: truffe, deepfake, interazioni inappropriate con i minori. In una lettera, affermano che gli Stati dovrebbero mantenere la flessibilità di agire rapidamente quando emergono rischi nuovi e gravi.
In California, l’Attorney General Rob Bonta ha preso posizione contro l’iniziativa: in una nota ufficiale ha dichiarato che togliere agli Stati il potere di regolamentare l’IA sarebbe un attacco al sistema federale. Ha rimarcato che lo Stato ha già dimostrato di poter bilanciare innovazione e sicurezza, e che le sue misure finora non hanno soffocato le imprese tech.
Sul fronte legislativo federale, non è un mistero cosa bolle in pentola. Il Congresso ha discusso una pretesa moratoria di 10 anni su qualsiasi legge statale che regoli modelli di IA, sistemi di IA o decisioni automatizzate. Un’altra proposta, l’American Artificial Intelligence Leadership and Uniformity Act, prevede un blocco quinquennale sulla regolamentazione statale e mira a creare un regime normativo uniforme.Di certo, non si può dire che manchi ambizione.
C’è chi sostiene seriamente che senza un intervento federale si creerebbe una giungla regolamentare: gli sviluppatori sarebbero costretti a navigare norme diverse in ogni Stato, i costi di compliance salirebbero e l’efficienza competitiva soffrirebbe. Questo punto di vista è condiviso anche da analisti economici: l’International Center for Law & Economics ha pubblicato un report secondo cui l’incertezza normativa statale rappresenta un ostacolo economico pesante per le aziende di IA.
Dall’altra parte, i critici avvertono che una preponderanza del potere federale senza regole chiare sui rischi reali — discriminazione algoritmica, responsabilità civile, trasparenza — significherebbe responsabilità fragili. Il Brennan Center ricorda che molti Stati hanno già adottato leggi per mitigare i danni dell’IA, ma se il Congresso dovesse imporre un divieto alle leggi locali, si creerebbe un vuoto regolatorio.
Inoltre, la Casa Bianca sembra pronta a usare leve amministrative pesanti: il possibile ordine esecutivo prevede di limitare fondi federali (ad esempio per la banda larga) agli Stati che mantengono leggi ritenute “problematiche”, e di coordinare azioni legali federali contro normative statali “in conflitto”.
Dal punto di vista tecnologico-strategico, è un poker ad alto rischio. Se la pretesa di uniformare tutto a livello federale verrà accettata, il governo centrale imposterà il ritmo della regolazione — con il pericolo che le misure finali siano troppo modeste per affrontare i danni potenziali, oppure troppo favorevoli all’industria. Se invece gli Stati mantenessero il loro potere, il mercato sarà più flessibile, ma il rischio di disomogeneità normativa rimane elevato e costoso.
In parallelo, la proposta di un “megabill” federale emerge nel Congresso: il deputato Ted Lieu, insieme alla AI Task Force bipartisan della Camera, lavora a un pacchetto normativo molto ampio. Il progetto include protezioni per consumatori contro frodi, trasparenza, tutela dei minori, whistleblower, rischio catastrofico e obblighi di test per i modelli più potenti. Un testo che ovviamente richiederà mesi (se non anni) per diventare legge — e che, paradossalmente, alimenta l’urgenza di chi vuole bloccare le leggi statali prima che quella cornice nazionale veda mai la luce.
In questa partita il vero campo di battaglia è il concetto di sovranità tecnologica. Non è solo un dibattito su regole, ma su che modello di governance dell’IA gli Stati Uniti vogliono incarnare: centralizzato o decentrato, reattivo o proattivo, a guida dell’industria o della democrazia. La posta in gioco va ben oltre qualche normativa: si tratta di decidere chi avrà voce e responsabilità nella costruzione del futuro dell’intelligenza artificiale.