eDonald Trump sembra pronto a firmare un ordine esecutivo già da venerdì che ribalterebbe lo scenario della regolamentazione sull’intelligenza artificiale negli Stati Uniti. L’idea non è sofisticata: mettere il governo federale al centro del controllo sull’AI, delegittimando le leggi statali che, secondo l’amministrazione, intralciano lo sviluppo industriale. Nel progetto trapelato, il Dipartimento di Giustizia istituirebbe un’“AI Litigation Task Force” un’unità il cui “unico compito” sarebbe fare causa agli Stati che approvano norme ritenute ostili al business dell’IA.
Fra i bersagli espliciti ci sono le leggi californiane che puntano sulla “sicurezza” dell’AI e sul rischio “catastrofico”, e le norme del Colorado contro la “discriminazione algoritmica”. La Task Force secondo il piano consulterebbe anche un gruppo di consiglieri speciali della Casa Bianca, tra cui David Sacks, miliardario e advisor per AI e crypto.
Negli ultimi giorni Trump ha rilanciato la sua proposta di una moratoria sulle leggi statali sull’AI. Durante un suo intervento al US-Saudi Investment Forum ha sostenuto che 50 regole diverse (una per ogni Stato) equivalgono a “un disastro”: secondo lui bastava “un’unica approvazione federale”. Ha poi attaccato le “woke state”, accusandole di imporre ideologie progressiste attraverso la regolamentazione tecnologica.
L’ordine esecutivo si inscrive in un disegno più ampio: nel suo “AI Action Plan” Trump aveva già chiesto a varie agenzie federali — DOJ, FCC, FTC, Dipartimento del Commercio — di esplorare modi per aggirare le normative statali considerate “onerose” per l’industria. Nel testo del decreto, entro 90 giorni il segretario al Commercio dovrebbe redigere un rapporto sugli Stati che, secondo la Casa Bianca, violano la politica federale sull’AI. Quel rapporto potrebbe poi essere usato per penalizzare gli Stati, ad esempio negando loro fondi del programma BEAD, che finanzia la banda larga nelle aree rurali.
Allo stesso tempo, la FTC dovrà valutare se alcune leggi statali in particolare quelle che impongono modifiche agli algoritmi di AI – siano da considerare pratiche sleali o fuorvianti secondo le sue regole. La FCC invece viene incaricata di lavorare a uno standard di trasparenza per i modelli di AI che possa prevalere su leggi statali in conflitto.
Già a settembre, il commissario della FCC Brendan Carr aveva suggerito che la normativa federale potesse essere interpretata in modo da scavalcare le leggi statali che ostacolano “infrastrutture moderne” come l’AI. Carr ha anche affermato che la FCC potrebbe bloccare una legge della California che imporrebbe alle aziende di AI di rendere pubblici i loro modelli di testing sulla sicurezza, chiamando in causa il concetto – caro a Trump – di AI “ideologica” o “woke”: “modelli di AI che promuovono DEI” piuttosto che un’AI che cerca la verità, ha detto.
Naturalmente il progetto non è privo di ostacoli legali: molti osservatori prevedono che la costituzionalità di una Task Force federale che fa causa agli Stati potrebbe essere contestata, e che la pretesa della Casa Bianca di usare la FCC per override legislativi statali finirà in tribunale.
Secondo Punchbowl News, poi, questo ordine esecutivo sarebbe il piano B della Casa Bianca: se il Congresso non riuscisse a imporre una moratoria sulle leggi statali sull’AI (come aveva tentato di fare nella National Defense Authorization Act), allora si passerebbe via esecutivo.
C’è un braccio di ferro anche sui fondi: il Segretario al Commercio dovrà identificare quali stati “non seguono” la politica federale, e questi potrebbero perdere l’accesso al programma BEAD per la banda larga. Alcuni esperti, come Adam Thierer del R Street Institute, si chiedono quanto forte sia questo ricatto: “Quanto grande deve essere una sovvenzione perché gli Stati cambino le loro leggi sull’AI?” ha detto.
Il tutto arriva dopo che il Senato aveva respinto una clausola che avrebbe imposto una moratoria decennale alle leggi sull’AI statali. Il movimento federale di centralizzazione dell’AI sostenuto anche da giganti della tecnologia e venture capitalist si scontra con la tradizione statale americana di autonomia normativa.
Dal punto di vista tecnologico e industriale, la mossa di Trump non è sorprendente: centralizzare il potere regolatorio sull’AI può dare un vantaggio competitivo agli attori tech nazionali, ridurre la frammentazione normativa e favorire investimenti su larga scala. È una logica da CEO che guarda al mercato globale: meno “attriti” regolatori significano meno costi e più velocità di innovazione.
Ma politicamente è una bomba. Il fatto che il Dipartimento di Giustizia voglia fare causa agli Stati per leggi democraticamente approvate rievoca una versione tecnologica di Talloner e potere federale forte. È un’accusa implicita: voi Stati siete “ostacolo alla crescita”, noi vi puniremo togliendovi i fondi. Un ricatto che mescola geopolitica industriale e cultura politica: “woke” qui diventa un grimaldello per dire “non ci sottometterete alle vostre regole progressive”.
Legalmente, la road non è facile. La pretesa di prerogativa esecutiva per sovrapporsi alle legislazioni statali su materie così complesse come l’AI è controversa. La Costituzione americana prevede limiti tra poteri federali e statali, e la pretesa di “preemption” via ordine esecutivo potrebbe essere respinta in tribunale. Come ha osservato il direttore del Center for Democracy & Technology, queste mosse mostrano una “disregard per i processi democratici statali”
Il ricatto dei fondi è poi doppiamente pericoloso: non solo minaccia la sovranità normativa, ma colpisce anche servizi critici come la banda larga nelle aree rurali (via BEAD). È un’arma finanziaria che può scalare politicamente, ma se usata male scatenerebbe una battaglia istituzionale pesante.
Infine, dal punto di vista della sicurezza e dell’etica dell’AI, la strategia federale di Trump sembra privilegiare lo sviluppo rapido a scapito di un controllo decentralizzato più cauto. Bloccare leggi che chiedono trasparenza sui modelli di AI (test di sicurezza, bias, discriminazione) può aprire la porta a rischi veri: discriminazione algoritmica, modelli poco verificabili, mancanza di responsabilità. L’“AI libera da restrizioni” suona bene per gli investitori, ma è un mantra rischioso per la società.
David Sacks, il consigliere della Casa Bianca coinvolto, è una figura molto controversa nella Silicon Valley. Nel suo ruolo di special adviser per AI e crypto potrebbe avere un’influenza diretta sulle strategie regolatorie: non semplicemente “un esperto”, ma un attore con un piede nell’industria e uno nel governo — una miscela che rende molto reali le scommesse su quale AI voglia promuovere l’amministrazione.