Il legislatore corre, ma corre in diagonale, e spesso inciampa nelle stesse trappole che dice di voler evitare. Negli Stati Uniti si sta formando una curiosa convergenza normativa attorno ai chatbot, un’onda apparentemente coordinata che attraversa stati diversi con una sorprendente uniformità strutturale, quasi fosse il prodotto di un unico modello replicato con variazioni marginali. Colorado, Hawaii, Arizona, Georgia, Nebraska e Idaho stanno proponendo disegni di legge che riecheggiano da vicino una recente normativa dell’Oregon, ma introducono elementi che, sotto la superficie della tutela, sembrano disegnati per limitare la responsabilità delle aziende di intelligenza artificiale. Il risultato è un equilibrio ambiguo, dove la protezione dei minori viene dichiarata con enfasi ma, secondo i critici, progressivamente svuotata.

La dinamica è familiare a chi ha osservato altri cicli tecnologici. Prima arriva l’innovazione, poi l’hype, quindi l’ansia regolatoria, infine la normalizzazione che spesso favorisce gli incumbent. Non è una teoria del complotto, è un pattern industriale. Si è visto con le telecomunicazioni, con il cloud, con i social media. Ora si ripete con l’intelligenza artificiale generativa, che ha il vantaggio competitivo di essere contemporaneamente invisibile e onnipresente, una combinazione che rende la regolazione particolarmente complessa e, per certi versi, facilmente manipolabile.

Il cuore della questione sta nei cosiddetti carve-out, eccezioni normative che escludono alcune categorie di servizi dall’obbligo di conformarsi alle regole previste. Nella maggior parte dei disegni di legge citati, i chatbot integrati all’interno di piattaforme più ampie non sarebbero soggetti agli stessi vincoli imposti ai chatbot standalone. Tradotto in linguaggio meno giuridico, significa che un assistente conversazionale integrato in un social network o in un motore di ricerca potrebbe sfuggire a requisiti stringenti semplicemente perché non è presentato come prodotto autonomo.

Il dettaglio è tecnico, ma l’impatto è sistemico. Le grandi piattaforme, quelle che dispongono di basi utenti nell’ordine dei miliardi e di capacità infrastrutturali fuori scala, sono esattamente le entità che più probabilmente incorporano chatbot nei loro ecosistemi. Una norma che esclude i chatbot “embedded” finisce per proteggere proprio gli attori dominanti, lasciando invece scoperti i player più piccoli o specializzati. La regolazione, in altre parole, rischia di diventare una barriera competitiva travestita da tutela sociale.

Il paradosso si intensifica quando si osservano gli obiettivi dichiarati delle normative. I disegni di legge includono disposizioni che, sulla carta, appaiono ragionevoli: obbligo per i chatbot di dichiarare la propria natura non umana, prevenzione di contenuti che possano indurre pensieri suicidari, reporting agli enti statali nei casi in cui gli utenti vengano indirizzati verso risorse di salute mentale, restrizioni aggiuntive per i minori, inclusa la proibizione di contenuti sessuali. Tutto condivisibile, almeno in astratto. Tuttavia, l’efficacia di queste misure dipende dalla loro applicabilità universale. Se una parte significativa del traffico AI sfugge a tali obblighi, la protezione diventa selettiva e, quindi, inefficace.

Sam Hiner, direttore esecutivo della Young People’s Alliance, ha espresso una preoccupazione che merita attenzione, non tanto per il suo contenuto politico quanto per la sua lucidità strategica. Il rischio, sostiene, è quello di cristallizzare lo status quo, creando l’illusione di aver risolto il problema mentre le protezioni reali restano insufficienti. È una critica che colpisce nel segno, perché tocca un nervo scoperto della governance tecnologica contemporanea: la tendenza a privilegiare soluzioni simboliche rispetto a interventi strutturali.

La questione dei minori è particolarmente delicata e, se vogliamo essere cinicamente onesti, anche politicamente conveniente. Proteggere i bambini è un argomento che genera consenso immediato e trasversale, ma proprio per questo viene spesso utilizzato come leva retorica per giustificare compromessi che, in altri contesti, sarebbero più difficili da accettare. Inserire eccezioni significative all’interno di una normativa che si presenta come tutela dei minori è un’operazione che richiede una certa abilità narrativa, ma non è certo un’innovazione nella storia della regolazione.

Un elemento interessante, quasi un’anomalia statistica, è rappresentato dalla legge proposta in Georgia, che non include il carve-out per i chatbot integrati. Questo dettaglio suggerisce che non esiste una necessità tecnica inevitabile dietro tali eccezioni, ma piuttosto una scelta politica. Quando una scelta è politica, diventa inevitabilmente negoziabile, e quando è negoziabile, tende a riflettere gli equilibri di potere più che le esigenze della collettività.

Il contesto più ampio è quello di una competizione globale per la definizione degli standard dell’intelligenza artificiale. Gli Stati Uniti, tradizionalmente più orientati al mercato rispetto all’Europa, stanno cercando un equilibrio tra innovazione e regolazione che non soffochi le loro aziende tecnologiche. L’Unione Europea, con il suo approccio più normativo e centralizzato, ha già introdotto l’AI Act, una struttura regolatoria più sistematica che classifica i sistemi AI in base al rischio. Il confronto tra questi modelli non è solo giuridico, è profondamente economico.

Nel frattempo, le aziende di AI giocano una partita a più livelli. Da un lato investono in sicurezza, allineamento e responsabilità, spesso con risultati che oscillano tra il genuino e il cosmetico. Dall’altro lato, partecipano attivamente al processo normativo, contribuendo a definire le regole del gioco in cui opereranno. Non è necessariamente un male; il coinvolgimento dell’industria può migliorare la qualità tecnica delle leggi. Tuttavia, quando il risultato finale include eccezioni che favoriscono gli attori più grandi, è legittimo interrogarsi su chi stia realmente scrivendo le regole.

Una curiosità storica può aiutare a contestualizzare. Negli anni Novanta, durante la regolazione iniziale di Internet, si affermò il principio della “safe harbor”, che limitava la responsabilità delle piattaforme per i contenuti generati dagli utenti. Quella scelta ha contribuito in modo significativo alla crescita dell’economia digitale, ma ha anche creato problemi che ancora oggi stiamo cercando di risolvere, dalla disinformazione alla moderazione dei contenuti. Le eccezioni odierne per i chatbot potrebbero essere viste come una nuova versione di quel compromesso, con benefici e costi che emergeranno nel tempo.

Il punto critico è che i chatbot non sono semplicemente un’altra interfaccia. Sono sistemi che mediano la conoscenza, influenzano decisioni, modellano percezioni. Quando un adolescente interagisce con un chatbot, non sta solo utilizzando uno strumento, sta entrando in una relazione cognitiva con un sistema progettato per simulare comprensione e empatia. In questo contesto, la distinzione tra chatbot standalone e chatbot integrato diventa quasi filosoficamente irrilevante, ma normativamente determinante.

La tensione tra innovazione e protezione non è nuova, ma l’intelligenza artificiale la amplifica. Da un lato, la velocità di sviluppo rende difficile per i legislatori stare al passo. Dall’altro, la scala e l’impatto potenziale dei sistemi AI rendono gli errori regolatori particolarmente costosi. In questo scenario, la tentazione di adottare soluzioni rapide, replicabili e politicamente spendibili è forte. Tuttavia, come spesso accade, la semplicità apparente nasconde complessità irrisolte.

Una frase che circola spesso nei corridoi della Silicon Valley recita: “Move fast and break things”. Negli ultimi anni, questa filosofia è stata progressivamente sostituita da una versione più cauta, almeno a livello retorico. Tuttavia, quando si osservano le dinamiche normative attuali, si ha l’impressione che il principio non sia scomparso, ma semplicemente traslato. Non sono più le aziende a muoversi velocemente rompendo cose, ma i legislatori a muoversi velocemente costruendo strutture che potrebbero non reggere nel lungo periodo.

La vera domanda, quindi, non è se queste leggi siano necessarie. Lo sono, in una certa misura. La domanda è se siano sufficienti, e soprattutto se siano progettate per affrontare il problema reale o per gestirne la percezione. In un’epoca in cui l’intelligenza artificiale è diventata un tema politico oltre che tecnologico, la distinzione tra sostanza e narrativa diventa cruciale.

Il rischio è quello di entrare in una fase di “compliance teatrale”, dove le aziende soddisfano formalmente requisiti normativi senza modificare sostanzialmente il proprio comportamento, mentre i legislatori possono rivendicare successi che esistono più nei comunicati stampa che nella realtà operativa. È un equilibrio instabile, che potrebbe funzionare nel breve periodo ma che difficilmente reggerà sotto la pressione di incidenti reali o crisi mediatiche.

Nel frattempo, gli utenti, inclusi i minori che queste leggi intendono proteggere, continuano a interagire con sistemi sempre più sofisticati, spesso senza una piena consapevolezza delle loro capacità e dei loro limiti. La trasparenza, tanto invocata, rimane un obiettivo sfuggente, e la responsabilità si disperde lungo catene di valore sempre più complesse.

Il quadro che emerge è quello di una regolazione in costruzione, ancora lontana da un equilibrio stabile. Le eccezioni, i compromessi, le ambiguità sono parte del processo, ma non possono diventare la norma. Se l’obiettivo è davvero quello di proteggere i più vulnerabili senza soffocare l’innovazione, sarà necessario un livello di rigore e coerenza che, al momento, sembra ancora in fase di definizione. Nel frattempo, l’intelligenza artificiale continua a evolversi, indifferente alle nostre categorie giuridiche, ricordandoci che la tecnologia non aspetta la legge, e raramente si adatta docilmente ai suoi confini.