La California è diventata il primo stato a stabilire regole esplicite per i chatbot di “compagnia” (AI che simulano amicizia o intimità), con la firma del Senate Bill 243 (SB 243) da parte del Governatore Gavin Newsom.
Aspetto | Dettagli chiave della legge SB 243 |
Obiettivo principale | Tutela dei minori dagli impatti emotivi e sociali negativi dei chatbot di compagnia. |
Requisiti per le aziende | Identificare i chatbot come artificiali. Limitare le conversazioni su sesso e autolesionismo con i minori. Segnalare i casi rilevati di ideazione suicidaria all’Ufficio statale per la Prevenzione del Suicidio. Fornire promemoria regolari che l’utente sta parlando con un software. Adottare protocolli di risposta ai segnali di autolesionismo e filtri di contenuto appropriati all’età. |
Autore della legge | Senatore statale Steve Padilla (D-San Diego). |
Contesto più ampio | La SB 243 fa parte di un pacchetto di leggi sull’IA, inclusa la SB 53, che impone ai grandi sviluppatori di IA di divulgare pubblicamente le loro strategie di sicurezza. |
Critiche e Preoccupazioni
La versione finale della legge ha suscitato un dibattito sulla sua efficacia, poiché alcune disposizioni iniziali sono state eliminate:
Indebolimento della legge: Le versioni precedenti prevedevano audit di terze parti e si applicavano a tutti gli utenti, non solo ai minori. Queste norme sono state rimosse a seguito di pressioni da parte del settore.
Ritiro del sostegno: Gruppi di difesa come Common Sense Media e il Tech Oversight Project hanno ritirato il loro supporto, definendo la legge rivista un rischio di “gesto vuoto anziché una politica significativa”.
Preoccupazioni del settore: Gli sviluppatori temono che regole di responsabilità troppo ampie possano spingerli a limitare per cautela conversazioni legittime su salute mentale o sessualità, privando potenzialmente gli utenti isolati (soprattutto gli adolescenti) di un supporto valido.
Difesa della Legge e Sfide Pratiche
Il Governatore Newsom ha difeso la SB 243 come una necessaria “barriera di protezione” per una tecnologia emergente, affermando che è fondamentale proteggere i bambini senza sacrificare l’innovazione.
Tuttavia, l’applicazione della nuova normativa presenta sfide pratiche:
Verifica e monitoraggio: Per un’azienda globale di chatbot, può essere difficile verificare chi sia un minore californiano o monitorare milioni di scambi quotidiani.
Rischio di diffusione: Essendo una normativa pionieristica in California, esiste il rischio che venga esportata a livello nazionale prima che si possa valutarne l’effettiva funzionalità e l’impatto.