In un’epoca in cui persino l’Unione Europea riesce a far passare un’AI Act senza scatenare un golpe di lobby, New York rischia di trasformarsi nel nuovo campo di battaglia della guerra fredda dell’intelligenza artificiale. Il motivo? Un disegno di legge, il RAISE Act, che con l’aria da manuale civico nasconde dinamite legislativa sotto la giacca.
Il RAISE Act — che sta per Responsible AI Strategic Enforcement — è stato approvato dall’assemblea legislativa dello Stato e ora attende la firma o il veto della governatrice Kathy Hochul. Come sempre accade quando l’intelligenza artificiale incontra la politica, il dibattito è isterico, opaco, travestito da tecnicismo ma alimentato da miliardi in ballo.
La proposta, in superficie, è ragionevole: impone solo alle “grandi” aziende — definite come quelle che spendono oltre 100 milioni di dollari in compute per l’addestramento di modelli — di adottare protocolli di sicurezza, mitigare i rischi e non rilasciare modelli che potrebbero “causare danni critici”. Se non rispettano queste condizioni, interviene il procuratore generale dello Stato con sanzioni civili. Non una ghigliottina, insomma. Più una guardia in giacca e cravatta.
Ma il diavolo, come sempre, abita nei dettagli. E qui il dettaglio è la definizione di rischio critico. Il testo — almeno per ora — lo lascia in sospeso, gettando le aziende in un limbo giuridico che ha fatto sobbalzare Jack Clark di Anthropic (che proprio ieri spiegava come una definizione incerta di “intelligenza pericolosa” può portare al paradosso di Frankenstein: blocchi il mostro dopo che ha già fatto saltare la diga). L’ambiguità normativa è veleno puro per i venture capitalist, che odiano due cose: l’incertezza e le tasse. Il RAISE Act promette entrambe.
Non sorprende, allora, che Andreessen Horowitz — il Vaticano della Silicon Valley — abbia attivato la macchina da guerra del lobbying. Hanno chiamato membri del Congresso di New York come fossero clienti scontenti di un fondo hedge, cercando di piazzare l’idea che questa legge sia un “avviso di sfratto” per l’ecosistema tech locale. Ironico, considerando che proprio a16z è tra i più grandi sponsor della cosiddetta American Innovators Network, un gruppo nato, guarda caso, per opporsi ai regolamenti sull’intelligenza artificiale. Dicono che ci butteranno sopra “cifre a sei zeri”. Una specie di open source del condizionamento politico.
Il gioco di specchi, però, è ancora più affascinante. Perché la Camera del Progresso — un gruppo che nel nome ha la parola “progresso”, ma nei comunicati sembra difendere status quo più che visioni future — ha chiesto alla governatrice Hochul di porre il veto, affermando che il disegno di legge è stato “affrettato”. Qui l’ironia si scrive da sola: si discute pubblicamente del RAISE Act da gennaio, sono passati sei mesi, e l’argomentazione è che la cosa è andata troppo veloce? Forse pensavano che l’intelligenza artificiale avesse bisogno di una procedura parlamentare da medioevo digitale.
Il parallelo con la California, dove lo SB 1047 ha creato un effetto molto simile, è inevitabile. Là, le aziende hanno gridato all’interferenza statale, all’ingerenza sui processi innovativi, al rischio di fuga dei cervelli. A distanza di pochi mesi, nessuno è fuggito, e OpenAI ha continuato a rilasciare modelli più potenti, proprio dalla sua sede in California. L’AI si evolve più in fretta delle lamentele, e la regolamentazione sembra, per molti, solo un ostacolo fastidioso a cui opporsi prima di adattarsi.
La verità? Il RAISE Act non è perfetto. Ma rappresenta un primo tentativo serio, sebbene localizzato, di mettere un argine alla corsa incontrollata verso l’automazione cognitiva totale. I legislatori newyorkesi hanno studiato, almeno un po’. Hanno limitato la portata del disegno alle aziende con risorse immense. Non stanno regolando il tizio che addestra LLaMA 3 nella sua stanza di Brooklyn, stanno parlando con i giganti, i veri fabbricanti della nuova infrastruttura epistemologica del mondo.
Quello che spaventa, sotto sotto, non è la legge. È il precedente. Se passa a New York, potrebbe passare anche in altri stati. E se l’idea che una società debba rendere conto degli effetti sistemici dei suoi modelli si radica nel pensiero politico americano, l’intero panorama del venture capital AI dovrà fare i conti con qualcosa di più complesso di una term sheet. Dovrà fare i conti con la responsabilità.
Certo, nessuno vuole strozzare l’innovazione. Ma neppure morire per colpa di un LLM che ha imparato a convincere un gruppo di ingegneri a disabilitare i protocolli di sicurezza, come in certi paper disturbanti usciti nelle ultime settimane. E come ha detto un ex consigliere della Casa Bianca in privato, “non regolamentare l’AI avanzata è come dare motoseghe a chiunque senza nemmeno spiegare come si spegne.”
La battaglia del RAISE Act è appena cominciata, ma già si sta giocando su più piani: etico, economico, culturale. Chi la racconta come una semplice schermaglia tra Stato e impresa non ha capito che in ballo c’è la ridefinizione stessa del potere computazionale. New York sarà pure la capitale del capitale, ma se cede alla paura di regolare, rischia di diventare una succursale di Menlo Park, senza nemmeno l’aria buona del Pacifico.
Se la legge verrà firmata o meno, è solo l’inizio. La partita vera si gioca sulla narrativa, sulla percezione pubblica, sulla capacità delle istituzioni di dimostrare che regolare non significa spegnere il futuro. Significa, semmai, evitare che il futuro ci esploda in faccia prima che possiamo capire che forma ha.