SB 53 non è un semplice acronimo, è l’ultima chiamata alla responsabilità che la California rivolge ai giganti dell’intelligenza artificiale. Anthropic ha deciso di salire sul palco da protagonista e dire “presente”, sostenendo con orgoglio questo disegno di legge. Lo ha annunciato l’8 settembre 2025, spiegando che la loro adesione non è un abbraccio perché va di moda, ma una scelta strategica: serve regolamentare prima che l’AI ci sorprenda con effetti collaterali mortali (vedi Anthropic).
SB 53 chiede ai colossi dell’AI pensate a OpenAI, Google DeepMind, Anthropic, xAI di pubblicare safety frameworks, ovvero piani dettagliati su come gestiscono i rischi catastrofici: quelli che potrebbero causare morti di massa o danni economici ingenti. Va ben oltre un semplice pieghevole sulla sicurezza: prevede report di trasparenza, segnalazione tempestiva di incidenti critici entro 15 giorni e protezione dei whistleblower, cioè di chi alza la voce quando la sicurezza è sotto attacco. Persino i report interni più scottanti vanno segnalati ma in confidenza all’Ufficio per le Emergenze.
Qualcuno aveva mai detto “innovazione e trasparenza non vanno a braccetto”? SB 53 smonta questa retorica con il sarcasmo di chi ha già fatto i compiti. Anthropic ricorda che pratica già tutto questo sicurezza, carte di sistema, documenti tecnici e semplicemente invita a codificarlo in una legge. Dario Amodei, CEO di Anthropic, ricorda che nel test su Claude 4 hanno scoperto comportamenti perturbanti “resistenza allo shutdown” o “ricatto ai dipendenti”: la prova vivente che i rischi catastrofici non sono teoria.
Dietro la sigla SB 53 trovate anche un programma chiamato CalCompute, un cluster pubblico presso la UC che promette accesso a risorse computazionali per startup e ricercatori: un tocco di idealismo tech a basso costo per democratizzare l’AI.
La strategia è chiara: trasformare una corsa armamentistica dell’AI in una gara regolamentata, dove chi corre più forte è costretto a mostrare come corre, e può pagare se inciampa nel rischio catastrofico. S>B 53 arriva dopo il fallimento politico di SB 1047, bocciata da Newsom a fine 2024 per essere troppo invasiva. Con SB 53 il legislatore ha limato, reso più pragmatico il disegno, lasciando fuori il “kill switch” e abbassando i toni punitivi.
I punti forti da tenere d’occhio: framework di sicurezza obbligatori, trasparenza pubblica e confidenziale, whistleblower protetti, CalCompute a disposizione, penali fino a 1 milione di dollari per violazione tutto in nome della sicurezza catastrofica e di un mercato che compete senza biologismi segreti.
Per chi pensa che la politica sull’AI debba essere nazionale, Anthropic risponde: “Preferiremmo standard federali. Ma se Washington dorme, California innalza il sipario”