Una moratoria decennale sulle leggi statali in materia di intelligenza artificiale non è semplicemente una misura di buon senso burocratico. È, in realtà, una clava politica che rischia di tagliare fuori ogni tentativo locale di regolamentare un settore ormai centrale nella nostra vita quotidiana. I senatori repubblicani del Comitato Commercio, nella loro ultima versione del mega pacchetto di bilancio del presidente Donald Trump, hanno inserito proprio questo: un blocco alle normative statali sull’AI. Un regalo dorato a Big Tech, mascherato da protezione della crescita economica e competitività americana. E mentre chi lo difende parla di “semplificazione normativa”, un numero crescente di legislatori e associazioni civiche grida al disastro, vedendo all’orizzonte l’azzeramento delle tutele per consumatori, lavoratori e persino bambini.
L’idea alla base di questa moratoria è seducente nella sua semplicità: impedire che ogni stato crei un proprio intricato mosaico di regole, mettendo così in crisi le aziende che operano su scala nazionale. Un’argomentazione classica, che evoca l’incubo di un mercato frammentato. Ma dietro questa cortina di fumo si nasconde un rischio ben più grande: una deregulation selvaggia e senza freni, proprio quando la società avrebbe bisogno di regole chiare e aggiornate per governare tecnologie che determinano la realtà e, spesso, la manipolano.
La moratoria non si limita a bloccare leggi specifiche sull’AI, ma potrebbe congelare qualsiasi normativa che tocchi l’automazione, la decisione algoritmica e persino le regole più banali a tutela dei consumatori. Social media, discriminazione algoritmica, deepfake manipolatori: tutto rischia di essere gettato nel calderone del “non regolamentabile” per un decennio. Chi controlla gli algoritmi controlla il futuro, e la prospettiva di lasciare questa tecnologia nelle mani di poche corporation senza alcuna supervisione legislativa è il peggior incubo per chi crede in uno sviluppo responsabile.
La vera ambiguità sta proprio nella vaghezza del testo, la definizione di “decisioni automatizzate” è così ampia che nessuno può davvero dire quali leggi statali verranno sacrificate sull’altare della moratoria. Potrebbe colpire norme di protezione dati, standard di accuratezza per sistemi di riconoscimento facciale e anche leggi specifiche come il “Stop Addictive Feeds Exploitation for Kids Act” di New York, destinato a limitare gli algoritmi che sfruttano i più giovani. Insomma, è come lasciare una porta spalancata a una tempesta di deregulation.
La versione senatoria introduce ulteriori complicazioni, condizionando addirittura i fondi statali per le infrastrutture di banda larga al rispetto della moratoria, e ampliando il divieto anche alle leggi penali statali. Una mossa che non solo mette un freno alla creatività legislativa, ma costringe gli stati a scegliere tra la regolazione e il sostegno economico federale. Per un CEO tecnologico, tutto ciò suona come un azzardo colossale: mettere in pausa l’innovazione normativa proprio quando serve più controllo, e non meno.
I sostenitori della moratoria sostengono che non tutti i provvedimenti statali sarebbero toccati, ma basta ascoltare J.B. Branch, attivista per la responsabilità di Big Tech, per capire che un buon avvocato del settore saprebbe far valere la massima estensione del divieto. Il quadro si fa ancora più fosco quando lo stesso Khanna ammette che molti colleghi probabilmente non hanno compreso la portata della misura, e che persino un’alleata di Trump come Marjorie Taylor Greene avrebbe votato diversamente, se avesse saputo cosa conteneva quel pacchetto.
Il caso della California è emblematico: la legge SB 1047, che puntava a imporre limiti e controlli sui grandi modelli di AI, è stata stroncata dal veto del governatore Newsom sotto la pressione di OpenAI e altri giganti tech. Sam Altman, il CEO di OpenAI, è passato da paladino della regolamentazione a campione della deregulation, riflettendo la crescente pressione delle aziende che vogliono schiacciare ogni ostacolo, giustificandola con la necessità di non perdere terreno nella corsa globale con la Cina.
Quello che stanno facendo con questa moratoria è creare il Far West, un Far West digitale dove le regole sono fatte e disfatte dai pochi che controllano la tecnologia, mentre consumatori e lavoratori restano senza protezioni. È un azzardo da CEO tecnologico serio, perché l’assenza di regolamentazioni non fa sparire i problemi, li rende solo invisibili e potenzialmente esplosivi.
La riflessione politica che emerge è chiara: una regolamentazione federale ben costruita sarebbe la risposta sensata per tenere insieme innovazione e tutela, ma congelare lo sviluppo legislativo statale per dieci anni equivale a un invito all’anarchia tecnologica. I governi locali hanno dimostrato di poter reagire più velocemente e con soluzioni più mirate rispetto a Washington. Spegnere questo laboratorio di idee e azione è un lusso che nessun paese competitivo può permettersi.
Più di 250 legislatori statali, insieme a una molteplicità di gruppi civici, hanno chiesto a gran voce di stralciare la moratoria. Con il ritmo vertiginoso dell’AI, la sperimentazione normativa è vitale. Come dice Khanna, questa partita non è solo sull’architettura di internet o sulle politiche di neutralità della rete: è sulla struttura stessa della società, sull’occupazione, sulle disuguaglianze sociali, sulla democrazia stessa.
Chi detiene oggi il potere sugli algoritmi detiene molto più della tecnologia: detiene la chiave del futuro. E lasciare questo potere senza controlli adeguati è un azzardo che nessun CTO con una visione a lungo termine può accettare senza una sana dose di ironia amara. La vera domanda non è se servano regole sull’AI, ma chi le scriverà e con quali interessi. Perché in questo gioco, non si tratta più solo di tecnologia. Si tratta di controllo, profitto e, infine, di potere.