Nel grande circo americano dove i partiti si azzuffano per ogni singola virgola, c’è qualcosa che li unisce: l’incapacità di capire davvero cosa sia l’intelligenza artificiale. L’ultima trovata arriva da un’area particolarmente creativa del Partito Repubblicano, dove un emendamento inserito con chirurgica insensatezza nella proposta di riduzione fiscale sponsorizzata da Donald Trump vorrebbe impedire agli stati americani di regolamentare l’AI per i prossimi dieci anni. Dieci. Un’eternità, se parliamo di modelli che evolvono ogni tre mesi.
Dario Amodei, CEO di Anthropic, non è certo noto per essere un sovversivo. Ma persino lui ha alzato il sopracciglio, infilzando con elegante chiarezza la proposta in un editoriale per il New York Times. “Un moratorium di dieci anni è uno strumento troppo rozzo”, scrive Amodei. In un’epoca in cui persino gli aggiornamenti software sembrano obsoleti dopo una settimana, blindare il vuoto normativo per un decennio è come sigillare un arsenale nucleare nel retrobottega di un fast food. Con le chiavi lasciate sotto lo zerbino.
Amodei, a differenza di molti tecnologi gonfi di retorica, sa bene che le AI non sono solo giochi da laboratorio o giocattoli per start-up sovraffollate di venture capitalist. Sa che ci sono rischi sistemici: sicurezza nazionale, manipolazione dell’informazione, impatti economici devastanti su lavoro e reddito. E sa anche, da insider, che se lasci le big tech sole a definire le regole del gioco, finiranno per piegare le regole come fionde.
Ecco allora la proposta sensata (ma nel 2025, il “senso” è già rivoluzionario): creare uno standard federale di trasparenza. Non una rete a maglie larghe, ma un quadro regolatorio chiaro, nazionale, obbligatorio. Niente lenti di ingrandimento, piuttosto occhiali da vista per i legislatori. Le aziende che sviluppano modelli avanzati dovrebbero pubblicare test, valutazioni, strategie di mitigazione dei rischi. E soprattutto, dovrebbero farlo prima di rilasciare modelli che potrebbero, diciamo, destabilizzare un’elezione o automatizzare la disinformazione su scala planetaria.
Curiosamente, Anthropic lo fa già. Così come OpenAI e DeepMind – a modo loro, ovviamente, spesso in un linguaggio tecnico impenetrabile, pensato per dire senza dire. Ma almeno esiste una forma di disclosure. Il problema, ammonisce Amodei, è che questa trasparenza è oggi volontaria. Dipende cioè dall’umore del consiglio d’amministrazione, dal ciclo dei finanziamenti, dall’eventuale presenza di un PR particolarmente nervoso. Serve invece un sistema di incentivi legali: obblighi, premi, penalità. Un’architettura normativa con i piedi nel diritto e gli occhi sul codice.
La mossa repubblicana, invece, fa esattamente il contrario: toglie potere agli stati – che in questi mesi hanno, in alcuni casi, superato il Congresso in lucidità normativa – senza fornire un’alternativa federale credibile. Il risultato? Il deserto legislativo. La deregulation come default, mascherata da efficienza. Un deja vu inquietante per chi ricorda le crisi finanziarie innescate da mercati “liberi” solo nei sogni dei lobbisti.
C’è poi un punto che Amodei non dice esplicitamente, ma che si legge tra le righe come un codice Morse: l’AI sta diventando troppo potente per essere lasciata nelle mani di chi non capisce nemmeno come funziona un algoritmo di raccomandazione. I politici americani, bipartisanmente analfabeti in materia, si illudono che “regolare” l’AI significhi frenare l’innovazione. Ma l’assenza di regole non è neutralità: è un favore strutturale ai più forti. Un patto scellerato che trasforma la Silicon Valley in un laboratorio senza bioetica, dove il primo che arriva scrive il codice e impone lo standard.
Ciò che preoccupa è anche l’effetto domino globale. Se gli Stati Uniti adottano un vuoto normativo protetto, le altre democrazie potrebbero trovarsi costrette a rincorrere, con regole frammentate e incoerenti. L’Europa, con il suo AI Act, rischia di apparire vecchia, lentina, eppure è oggi l’unico contesto normativo con un minimo di ambizione civile. Ma senza sponda americana, persino Bruxelles si trasforma in un gigante zoppo. La competizione normativa, oggi, è altrettanto decisiva della competizione tecnologica.
La domanda vera è: chi deve decidere cosa è “sicuro” quando parliamo di un sistema che può simulare l’empatia, generare bugie credibili, inventare personalità, creare interi ecosistemi narrativi? Lasciare tutto questo a un algoritmo autoregolato è come affidare a una macchina il codice penale, ma senza giudici. O peggio, con giudici fatti di silicio.
In fondo, l’idea di congelare la regolazione per dieci anni è una dichiarazione di resa. È l’equivalente digitale del “lasciateci fare”, il mantra ottocentesco del liberismo più sregolato. Solo che stavolta, il laissez-faire ha le sembianze di un modello linguistico, con accesso a tutti i dati del mondo e la capacità di convincere, manipolare, creare. “I modelli sono potenti”, scrive Amodei, “e lo stanno diventando sempre di più”. Già oggi, GPT-4 sembra un diplomatico narcisista, Claude-3 un professore universitario frustrato, Gemini un assistente sovraccarico. Immaginiamoli fra dieci anni, con l’unica regola scritta in un emendamento fiscale.
L’ironia è che chi propone questa moratoria lo fa in nome della libertà di innovare. Ma è una libertà senza confini, senza freni, senza costi. E come ogni libertà assoluta, finisce per diventare arbitrio. In un mondo in cui le tecnologie diventano infrastrutture cognitive collettive, rinunciare a regolarle è come lasciare aperta la diga durante la tempesta, sperando che l’acqua si regoli da sola. L’AI non è il far west, anche se a Washington qualcuno sogna ancora di essere John Wayne davanti a un terminale.
Nel frattempo, i cittadini restano spettatori passivi. Ogni giorno parlano con chatbot, usano strumenti che apprendono dai loro comportamenti, lasciano tracce digitali che diventano carburante per modelli che nessuno ha mai votato, discusso o scelto. E mentre i politici giocano a fare gli stregoni della crescita, le macchine imparano. E non dimenticano.