La notizia è arrivata come un siluro nel placido mare dell’innovazione tecnologica: il principale regolatore di internet in Cina, la Cyberspace Administration Of China, ha pubblicato una bozza di regole destinata a governare l’uso dei servizi di intelligenza artificiale che simulano interazioni umane. Queste non sono linee guida timide, sono piuttosto un audace tentativo di disciplinare il comportamento delle macchine che parlano, scrivono, rispondono con voce e immagine come se avessero un qualche tipo di “anima digitale”. Nel 2025, mentre il mondo intero dibatte su come rendere sicure, etiche e profittevoli le tecnologie di intelligenza artificiale, Pechino annuncia che accetterà commenti pubblici su queste regole soltanto fino al 25 gennaio 2026. La scadenza è annunciata con la solennità di un editto imperiale, e le implicazioni stratificate dentro questa iniziativa sono destinate a riscrivere regole non solo in Cina ma in tutto il mondo.
La bozza di regolamento punta dritto ai sistemi di AI “human-like”, ovvero a quei modelli capaci di imitare caratteristiche, schemi di pensiero e stili di comunicazione che li avvicinano all’esperienza umana. Non si tratta di un semplice documento di best practice, ma di un assetto normativo che richiede alle aziende di introdurre misure di allerta sui rischi e di protezione della salute mentale degli utenti. In pratica, se il tuo chatbot cinese comincia a parlare come se fosse l’alter ego digitale della tua infanzia, deve anche avvisarti quando potrebbe crearti dipendenza. E se rileva segnali comportamentali che suggeriscono un uso compulsivo, deve intervenire. È un modo sorprendentemente paternalistico di concepire l’AI: la macchina che ti parla come un amico deve anche fare da badante.
Questa evoluzione normativa arriva in un momento in cui la Cina sta vivendo una proliferazione rapidissima di prodotti di intelligenza artificiale destinati ai consumatori, dal social chatbot alle app che generano video personalizzati, passando per assistenti vocali capaci di conversazioni articolate. Il ritmo è tale che il governo ha capito che non basta più reagire con restrizioni spot o linee guida vaghe, ma serve un quadro organico e vincolante. Al centro della strategia di Pechino troviamo l’idea che l’intelligenza artificiale non sia soltanto una questione tecnologica, ma sociale, psicologica, e soprattutto di controllo comportamentale. Le macchine non devono soltanto essere intelligenti, devono anche essere “sane”.
È interessante osservare come questa regolamentazione cinese sull’intelligenza artificiale si discosti da molte normative occidentali. In Europa, ad esempio, il dibattito sul regolamento AI è stato dominato da preoccupazioni sulla discriminazione algoritmica, sulla trasparenza e sui diritti dei dati personali. Nella bozza cinese, invece, il focus è esplicitamente orientato all’interazione psicologica con l’utente e alla prevenzione dell’addiction digitale. È quasi come se i legislatori di Pechino avessero letto troppo romanzi di fantascienza distopica, o forse semplicemente abbiano guardato con preoccupazione i trend d’uso: milioni di giovani che parlano più con avatar digitali che con i propri coetanei.
Un elemento della bozza che cattura l’attenzione è l’obbligo per i fornitori di servizi di AI di prevedere “misure di protezione della salute mentale”. Non si tratta di un termine vago gettato lì per placare qualche attivista: la bozza richiede esplicitamente che i sistemi monitorino segnali di dipendenza e adottino interventi se l’utente mostra chiari segni di uso problematico. È un concetto che, se applicato rigidamente, potrebbe costringere le aziende a implementare monitoraggi comportamentali sofisticati, strumenti che analizzano pattern di utilizzo, tono della voce, frequenza di richiesta e altri segnali biometrici o psicologici. In altre parole, non solo l’AI osserva te, ma deve anche riflettere su come il suo stesso comportamento ti influenzi.
Chi ha familiarità con i modelli di business delle grandi tech company saprà quanto questo tipo di requisiti possa essere disruptive. I motori di raccomandazione e gli assistenti conversazionali prosperano sui dati, sull’ottimizzazione del coinvolgimento e sulla personalizzazione estrema. Immaginate un algoritmo che deve, in tempo reale, bilanciare il desiderio di tenervi incollati allo schermo con la necessità di interrompere la connessione perché “potresti essere in difficoltà emotiva”. È una tensione normativa destinata a generare conflitti profondi tra sviluppatori, etici dell’AI e autorità di controllo.
Una curiosità: l’idea di integrare avvisi di rischio nelle AI non è del tutto nuova. Negli Stati Uniti alcune startup avevano sperimentato messaggi di avviso automatico in app di meditazione o di supporto psicologico digitale. Queste implementazioni, però, erano volontarie e spesso considerate poco più che strategie di responsabilità sociale d’impresa. In Cina, invece, questa funzione diventa obbligatoria per legge. È come se il governo stesse dicendo ai suoi cittadini: “Non solo fai interagire la tua mente con un algoritmo, ma quell’algoritmo deve badare a te.” È paternalismo digitale elevato a standard normativo.
Se leggiamo queste mosse con lenti più ampie, vediamo un pattern strategico. La Cina ha lanciato negli ultimi anni regole stringenti su vari aspetti dell’economia digitale: dalla limitazione delle ore di gioco per i minori alle regolazioni sulle piattaforme di condivisione di contenuti. Tutti questi interventi sembrano convergere verso un modello di “capitalismo controllato”, in cui l’innovazione è benvenuta, ma entro confini socialmente definiti dallo Stato. L’intelligenza artificiale, con la sua capacità di creare mondi conversazionali, narrative persuasive e “amici digitali”, rappresenta una frontiera particolarmente delicata. Il controllo dell’esperienza utente diventa così sinonimo di controllo sociale.
Questa impostazione, inevitabilmente, solleva domande etiche profonde. È giusto che un governo decida cosa costituisce un “segno di dipendenza” e imponga all’AI di interrompere conversazioni o limitare l’interazione? Chi decide quali segnali psicologici debbano essere considerati critici? Esistono rischi concreti di false positive, con algoritmi che interrompono interazioni innocue perché interpretano erroneamente pattern di utilizzo? E ancora: fino a che punto gli stessi dati raccolti per “proteggere” l’utente non diventino strumenti di sorveglianza comportamentale di massa? In un clima dove i dati sono già la valuta dominante, aggiungere criteri psicometrici a quel bottino informativo sposta l’asticella del potere verso una sorveglianza più profonda di quanto fosse mai avvenuto prima.
I commenti pubblici aperti fino al 25 gennaio 2026 offriranno un’insolita opportunità per osservare come le imprese cinesi e internazionali reagiranno a queste proposte. Le big tech che operano in Cina dovranno bilanciare compliance normativa con competitività di prodotto. Molti sviluppatori indipendenti, che prosperano su modelli di AI open source, potrebbero trovarsi a dover riconsiderare intere architetture progettuali per non violare i requisiti di “intervento psicologico”. L’intero ecosistema tecnologico sarà messo di fronte a una scelta: adattarsi a una visione normativa che mette al centro il controllo dello stato sulla relazione uomo-macchina, oppure rischiare l’esclusione dal mercato più grande del mondo.
A livello globale, questa bozza di regolamentazione sull’intelligenza artificiale in Cina rappresenta un esperimento di governance che potrebbe diventare modello per altri paesi con visioni simili di mercato e controllo sociale. I governi autoritari o semi-autoritari potrebbero guardare a questi regolamenti come una linea guida per bilanciare innovazione e controllo sociale. Dall’altra parte, paesi democratici potrebbero citare l’approccio cinese come esempio di cosa non fare, preferendo normative più focalizzate sui diritti individuali, sulla trasparenza degli algoritmi e sulla responsabilità aziendale piuttosto che sul monitoraggio psicologico degli utenti.
Se la storia recente della tecnologia ci ha insegnato qualcosa, è che l’innovazione sfugge rapidamente a qualsiasi tentativo di incasellamento rigido. Le startup più audaci potrebbero trovare modi per aggirare questi vincoli, offrendo interazioni AI su piattaforme decentralizzate o su infrastrutture cloud non soggette alla giurisdizione cinese. Qui emerge una tensione fondamentale: la regolamentazione può solo governare ciò che è centralizzato, facilmente monitorabile e soggetto a controllo. Quando l’intelligenza artificiale si distribuisce in modi che superano le barriere nazionali, le leggi restano carta morta.
Alla fine, quello che la Cina sta tentando di fare con questa bozza di regole è nientemeno che rimodellare la relazione tra l’essere umano e la macchina. Non è una questione tecnica, è un question time filosofico e politico. Stiamo costruendo strumenti che simulano empatia, comprendono emozioni e potenzialmente influenzano stati mentali. Governo o mercato, chi deve avere l’ultima parola su come questi strumenti operano? La bozza cinese suggerisce una risposta: lo Stato prima di tutto. Resta da vedere se il resto del mondo seguirà questa strada o reindirizzerà il dibattito verso una regolamentazione che mette al centro l’autonomia dell’utente e la responsabilità etica degli sviluppatori. La posta in gioco è enorme, e la conversazione è appena cominciata.