C’è qualcosa di profondamente americano nel modo in cui la California affronta l’Intelligenza Artificiale: l’illusione che una manciata di menti brillanti, un paio di audizioni pubbliche, e un documento PDF di 52 pagine possano davvero tenere sotto controllo qualcosa che si evolve più velocemente del dibattito stesso. È successo di nuovo. Dopo la morte prematura e politicamente imbarazzante del Senate Bill 1047 lo scorso settembre — troppo rigido, troppo costoso, troppo… europeo per i gusti di Gavin Newsom — la palla è passata ai soliti “esperti”.

Eccoli, dunque, i nuovi architetti della governance algoritmica: Fei-Fei Li da Stanford, Mariano-Florentino Cuéllar del Carnegie Endowment, Jennifer Tour Chayes di Berkeley. L’elite accademica della Silicon Valley, intenta a riscrivere le regole del gioco che i loro ex studenti stanno già violando in tempo reale. Sembra quasi una commedia: la generazione che ha creato il mostro viene ora chiamata a regolarne l’evoluzione. E lo fa con una prosa talvolta visionaria, talvolta volutamente sfuggente, ma sempre politicamente calibrata per non inimicarsi né OpenAI né la Casa Bianca.

Il California Report on Frontier Policy è, almeno formalmente, una risposta al vuoto lasciato dal veto di Newsom. Ma è anche un documento simbolico, pubblicato in un momento in cui al Congresso si parla di un moratorium decennale sul diritto degli stati di regolare l’AI. Una mossa che, se approvata, renderebbe l’intero esercizio californiano una nota a piè di pagina. Tuttavia, la posta in gioco è più alta di quanto sembri. La California è l’epicentro economico e culturale dell’AI globale. Se non riesce nemmeno a scrivere regole sensate per i propri modelli, figuriamoci per quelli che verranno da Pechino o Londra.

Il rapporto parte da un’ammissione notevole, se non altro per l’onestà: “senza adeguate salvaguardie… l’AI potente può indurre danni gravi, e in alcuni casi, potenzialmente irreversibili.” Una frase che dovrebbe campeggiare sullo sfondo di ogni pitch deck da miliardi di dollari. Ma subito dopo, arriva la cautela tutta californiana: non vogliamo soffocare l’innovazione. D’altronde, la storia della Silicon Valley è stata sempre un mix tossico di hybris tecnologica e allergia alla responsabilità. Ora però, con modelli da 100 milioni di dollari in addestramento e capacità “catastrofiche” auto-riferite dalle stesse aziende, la scusa dell’esperimento non regge più.

Cosa propone dunque il rapporto? Prima di tutto, smettere di misurare il rischio in base alla “compute” — la potenza di calcolo usata per addestrare un modello — e cominciare a valutarne gli impatti a valle. Sembra ovvio. Non lo è. Perché il sistema attuale si basa proprio sull’illusione quantitativa che tutto ciò che è misurabile sia anche controllabile. Ma l’AI non è una centrale nucleare: è una struttura dinamica, opaca, e spesso incomprensibile persino ai suoi stessi creatori. Come ha scritto Dario Amodei, CEO di Anthropic, “gli sviluppatori da soli non bastano a capire appieno la tecnologia, né i suoi rischi.”

Serve un terzo occhio, indipendente, competente, e soprattutto libero. Da qui la proposta chiave del report: valutazioni di rischio condotte da terze parti, con accesso garantito — reale, non simbolico — ai modelli. Facile a dirsi, ma qui entra in scena la vera tensione tra governance e potere. Perché nessuna delle grandi aziende (né OpenAI, né Google, né Microsoft) vuole veramente aprire le porte. Non lo fanno nemmeno con i loro contractor, come dimostra la lamentela di Metr, che non ha ricevuto dati e tempo sufficiente per testare in modo robusto l’ultima iterazione del modello o3.

Ironico, considerando che queste stesse aziende sono le prime a chiedere “collaborazione” con i governi quando si parla di minacce geopolitiche. Collaborazione sì, ma alle loro condizioni. Come se il codice sorgente fosse un segreto di stato e non una bomba a orologeria.

Il documento propone anche un “safe harbor” legale per i whistleblower e per i ricercatori indipendenti — una zona franca dove si possano testare i modelli senza temere azioni legali. È un’idea semplice, già applicata nella cybersecurity, e perfettamente sensata. Ma non basta. Il vero punto è che le aziende oggi esercitano un controllo pressoché totale sulle informazioni che decidono di rilasciare. Come fare risk assessment senza accesso reale ai dati, agli esempi di addestramento, e alle logiche interne del modello? È come fare l’audit a una banca senza poter vedere i suoi conti.

Nel frattempo, mentre i report si moltiplicano e i governi prendono tempo, i modelli continuano a evolversi. L’introduzione nel testo finale di un richiamo ai rischi CBRN (chimici, biologici, radiologici e nucleari) è tutto fuorché simbolica. Non stiamo parlando di bias nei sistemi di riconoscimento facciale, ma della possibilità concreta che un LLM venga usato per progettare armi di distruzione di massa. E non serve un modello da un miliardo per farlo. Bastano API pubbliche, query ben fatte e, magari, una manciata di token in più.

La verità è che il mercato corre, e corre più veloce del legislatore. La retorica della “armonizzazione tra stati” evocata da Scott Singer, uno degli autori, suona bene, ma dimentica che ogni giorno che passa senza una vera regolamentazione è un giorno in cui l’asimmetria informativa tra sviluppatori e società si fa più profonda. E quella frattura, oggi epistemica, domani potrebbe essere politica. Quando l’AI avrà una voce nei processi decisionali, nei tribunali, nei mercati, sarà troppo tardi per chiederle conto.

“Anche le policy di sicurezza perfettamente disegnate non possono prevenire il 100% degli esiti avversi”, scrivono gli autori. Una verità tanto amara quanto inevitabile. Ma è proprio questa inevitabilità a rendere urgente un’azione concreta. Non un’altra consultazione pubblica. Non un altro rapporto. Non un altro PDF.

Nel 2025, parlare di “governance dell’AI” senza accesso reale, trasparenza obbligatoria, e poteri di enforcement è come regolamentare le criptovalute con un fax.

E mentre la California sogna di essere leader mondiale nell’AI responsabile, il rischio è che diventi la capitale globale dell’inazione con buone intenzioni.