La California è diventata il primo stato a stabilire regole esplicite per i chatbot di “compagnia” (AI che simulano amicizia o intimità), con la firma del Senate Bill 243 (SB 243) da parte del Governatore Gavin Newsom.

AspettoDettagli chiave della legge SB 243
Obiettivo principaleTutela dei minori dagli impatti emotivi e sociali negativi dei chatbot di compagnia.
Requisiti per le aziendeIdentificare i chatbot come artificiali. Limitare le conversazioni su sesso e autolesionismo con i minori. Segnalare i casi rilevati di ideazione suicidaria all’Ufficio statale per la Prevenzione del Suicidio. Fornire promemoria regolari che l’utente sta parlando con un software. Adottare protocolli di risposta ai segnali di autolesionismo e filtri di contenuto appropriati all’età.
Autore della leggeSenatore statale Steve Padilla (D-San Diego).
Contesto più ampioLa SB 243 fa parte di un pacchetto di leggi sull’IA, inclusa la SB 53, che impone ai grandi sviluppatori di IA di divulgare pubblicamente le loro strategie di sicurezza.

Critiche e Preoccupazioni

La versione finale della legge ha suscitato un dibattito sulla sua efficacia, poiché alcune disposizioni iniziali sono state eliminate:

Indebolimento della legge: Le versioni precedenti prevedevano audit di terze parti e si applicavano a tutti gli utenti, non solo ai minori. Queste norme sono state rimosse a seguito di pressioni da parte del settore.

Ritiro del sostegno: Gruppi di difesa come Common Sense Media e il Tech Oversight Project hanno ritirato il loro supporto, definendo la legge rivista un rischio di “gesto vuoto anziché una politica significativa”.

Preoccupazioni del settore: Gli sviluppatori temono che regole di responsabilità troppo ampie possano spingerli a limitare per cautela conversazioni legittime su salute mentale o sessualità, privando potenzialmente gli utenti isolati (soprattutto gli adolescenti) di un supporto valido.


Difesa della Legge e Sfide Pratiche

Il Governatore Newsom ha difeso la SB 243 come una necessaria “barriera di protezione” per una tecnologia emergente, affermando che è fondamentale proteggere i bambini senza sacrificare l’innovazione.

Tuttavia, l’applicazione della nuova normativa presenta sfide pratiche:

Verifica e monitoraggio: Per un’azienda globale di chatbot, può essere difficile verificare chi sia un minore californiano o monitorare milioni di scambi quotidiani.

Rischio di diffusione: Essendo una normativa pionieristica in California, esiste il rischio che venga esportata a livello nazionale prima che si possa valutarne l’effettiva funzionalità e l’impatto.