
Nel teatro apparentemente tecnico della regolazione dell’intelligenza artificiale, si sta consumando una dinamica molto più antica e decisamente meno neutrale: la ridefinizione del potere tra centro e periferia, tra Washington e gli stati, tra ideologia e mercato. Il recente ordine esecutivo firmato da Gavin Newsom non è soltanto un atto amministrativo; è un segnale politico sofisticato, una mossa strategica che utilizza la leva più sottovalutata del capitalismo tecnologico contemporaneo, ovvero la spesa pubblica. Chi controlla il procurement, in fondo, controlla il design del futuro.
Il punto non è se le aziende debbano proteggere privacy, sicurezza e diritti civili. Questo è ormai retorica standard, quasi obbligatoria, un po’ come le dichiarazioni ESG nei report annuali. Il vero nodo è chi definisce gli standard operativi dell’intelligenza artificiale in un contesto in cui la tecnologia evolve più rapidamente delle istituzioni che dovrebbero governarla. La California, con il suo ordine, non si limita a regolamentare; impone condizioni di accesso al mercato pubblico, trasformando ogni contratto in un filtro etico e tecnico. È una forma di regolazione indiretta, elegante, e soprattutto estremamente efficace.
Storicamente, questo tipo di dinamica non è nuovo. Quando negli anni ’70 la regolazione ambientale statunitense iniziò a prendere forma, furono spesso gli stati più avanzati a dettare lo standard de facto, costringendo le aziende a uniformarsi per non perdere accesso a mercati chiave. Oggi, l’intelligenza artificiale si trova in una fase analoga, ma con una posta in gioco molto più alta: non si tratta solo di emissioni o sicurezza dei prodotti, ma di bias algoritmico, libertà di espressione e, in ultima analisi, controllo cognitivo.
Nel frattempo, la posizione dell’amministrazione federale guidata da Donald Trump appare coerente con una visione centralista del potere regolatorio, ma anche con una precisa agenda culturale. Il tentativo di bandire quella che viene definita “woke AI” dai contratti federali non è solo una questione semantica o ideologica; è un tentativo di ridefinire i parametri stessi di neutralità algoritmica. Il problema, naturalmente, è che la neutralità è una costruzione teorica fragile, spesso utilizzata come arma retorica più che come principio operativo.
In questo contesto, il concetto di “federalismo algoritmico” emerge come una lente interpretativa utile. Gli stati, in particolare quelli con massa economica significativa come la California, diventano laboratori normativi, mentre il governo federale cerca di evitare una frammentazione che potrebbe rallentare l’innovazione o creare barriere interne. È una tensione classica, già vista con le telecomunicazioni, con Internet, persino con il commercio interstatale nell’Ottocento. Solo che oggi la posta in gioco non è il trasporto di merci, ma quello di modelli cognitivi.
Il procurement pubblico, spesso ignorato nelle discussioni accademiche sull’AI governance, è in realtà il vero campo di battaglia. Le aziende tecnologiche non costruiscono modelli solo per il mercato consumer; una quota crescente del loro fatturato deriva da contratti governativi. Questo significa che le specifiche tecniche richieste nei bandi diventano, di fatto, standard industriali. Se la California richiede watermarking per contenuti generati o policy avanzate contro il bias, le aziende si adegueranno, non per convinzione etica ma per necessità economica. Il capitalismo, dopotutto, ha sempre avuto una straordinaria capacità di adattamento normativo quando il fatturato è in gioco.
La questione del watermarking, apparentemente tecnica, merita una riflessione più ampia. L’idea di marcare i contenuti generati dall’AI nasce da una logica di trasparenza, ma si scontra con la realtà di modelli sempre più sofisticati e difficili da distinguere dai contenuti umani. In un certo senso, è una battaglia già persa in partenza, o quantomeno una corsa agli armamenti tra detection e generazione. Tuttavia, dal punto di vista politico, il watermarking ha un valore simbolico enorme: rappresenta il tentativo di mantenere una distinzione ontologica tra umano e artificiale, in un’epoca in cui questa distinzione si sta progressivamente dissolvendo.
Nel frattempo, gli analisti come Kevin Frazier richiamano il dettato costituzionale, sottolineando come il governo federale debba guidare su questioni di sicurezza nazionale e uniformità economica, lasciando agli stati un margine di manovra nelle loro giurisdizioni. È una posizione formalmente corretta, ma che ignora una dinamica fondamentale: nel mondo dell’intelligenza artificiale, la velocità conta più della giurisdizione. Gli stati possono muoversi più rapidamente del Congresso, e in un settore in cui il time-to-market è critico, questa agilità diventa un vantaggio competitivo normativo.
La figura di Newsom, spesso letta in chiave elettorale, aggiunge un ulteriore livello di complessità. La sua mossa non è solo regolatoria ma anche narrativa. Posizionarsi come il governatore che “protegge i cittadini dall’AI” è un asset politico potente in un’epoca di crescente diffidenza verso le tecnologie emergenti. Tuttavia, dietro la retorica della protezione si intravede una strategia più sofisticata: trasformare la California nel benchmark globale per la governance dell’intelligenza artificiale, replicando ciò che il GDPR ha fatto per l’Europa.
Il parallelo con il GDPR non è casuale. Anche in quel caso, una giurisdizione con forte potere economico ha imposto standard che sono stati poi adottati globalmente, non per obbligo legale ma per convenienza operativa. Le aziende preferiscono conformarsi a uno standard elevato piuttosto che gestire una molteplicità di requisiti locali. Se la California riuscirà a imporre i suoi standard attraverso il procurement, potremmo assistere a una “californizzazione” dell’AI governance, con effetti ben oltre i confini statali.
Nel frattempo, le aziende tecnologiche si trovano in una posizione delicata, quasi schizofrenica. Da un lato devono soddisfare requisiti federali che enfatizzano la neutralità ideologica; dall’altro devono aderire a standard statali che richiedono attenzione a bias, equità e diritti civili. Questo doppio vincolo non è solo un problema legale, ma anche ingegneristico. Come si costruisce un modello che sia simultaneamente “neutrale” e “equo”? La risposta, ovviamente, è che non esiste una soluzione semplice, e chi promette il contrario sta vendendo marketing, non tecnologia.
In questo scenario, la retorica dell’“AI responsabile” rischia di diventare ciò che il termine “cloud” è stato negli anni 2010: un contenitore semantico elastico, utile per vendere qualsiasi cosa a chiunque. Tuttavia, sotto la superficie del marketing, si stanno definendo standard concreti che avranno un impatto reale su come i modelli vengono progettati, addestrati e distribuiti. Il procurement, ancora una volta, è il punto di convergenza tra teoria e pratica.
La tensione tra innovazione e regolazione, spesso presentata come un trade-off inevitabile, è in realtà una falsa dicotomia. Le grandi piattaforme tecnologiche sono nate e cresciute all’interno di contesti regolatori specifici, e spesso hanno beneficiato di standard chiari che hanno ridotto l’incertezza. Il problema non è la regolazione in sé, ma la sua frammentazione. Ed è qui che il conflitto tra stati e governo federale diventa critico: un ecosistema normativo incoerente rischia di rallentare l’innovazione più di qualsiasi regolazione stringente.
Nel lungo periodo, è probabile che assisteremo a una convergenza, ma non necessariamente nel senso di una vittoria federale. Piuttosto, potremmo vedere un modello ibrido in cui gli stati più influenti fungono da apripista, mentre il governo federale codifica e standardizza le pratiche più efficaci. È un processo caotico, spesso inefficiente, ma sorprendentemente resiliente, come molte dinamiche istituzionali americane.
Rimane una domanda di fondo, quasi filosofica: chi deve decidere cosa è “giusto” in un algoritmo? Le aziende, con i loro incentivi economici; i governi, con le loro agende politiche; o una combinazione dei due, mediata da processi democratici spesso lenti e imperfetti? La risposta, come spesso accade, è che non esiste una risposta definitiva. Esiste solo un equilibrio dinamico, continuamente rinegoziato, in cui ogni attore cerca di massimizzare la propria influenza.
Nel frattempo, l’intelligenza artificiale continua a evolvere, indifferente ai dibattiti regolatori, alimentata da capitali sempre più ingenti e da una competizione globale che non aspetta i tempi della politica. La vera ironia è che mentre discutiamo di watermarking e bias, i modelli diventano sempre più autonomi, più opachi e più difficili da controllare. È una corsa in cui le regole vengono scritte mentre il gioco è già in corso, e in cui il rischio più grande non è fare troppo, ma fare troppo tardi.
In definitiva, il conflitto tra California e Washington non è un’anomalia, ma una manifestazione inevitabile di un sistema che cerca di adattarsi a una tecnologia che sfida le sue fondamenta. Chi vincerà è quasi irrilevante. Ciò che conta è come questo scontro ridefinirà le regole del gioco, non solo per le aziende tecnologiche ma per l’intera società. E, come spesso accade, il vero vincitore sarà chi saprà leggere il procurement non come una funzione amministrativa, ma come una leva strategica di potere.