Non hanno usato manganelli, né droni. Ma un clic silenzioso ha oscurato le menti digitali più brillanti del Dragone. Alibaba, ByteDance, Tencent e Moonshot: giganti che nel silicio scolpiscono l’immaginario tecnologico cinese, si sono piegati di fronte a un nemico vecchio come il mondo — la voglia di barare all’esame.
Durante i giorni sacri del gaokao, l’imponente rito collettivo che decide il destino accademico (e spesso anche esistenziale) di oltre 13 milioni di studenti, le funzioni più sofisticate dei chatbot sono state messe in pausa. Non per guasti tecnici o aggiornamenti di sistema. Ma per paura che qualche diciottenne troppo sveglio potesse chiedere una foto al compagno più fidato del 2025: l’algoritmo.
I bot non riconoscono più le immagini dei test. Il riconoscimento visivo è stato disabilitato in blocco, come se fosse un’arma troppo pericolosa da lasciare incustodita. Yuanbao, Doubao, Qwen, Kimi: tutti messi a tacere per “garantire l’equità degli esami di ammissione”, dice la voce ufficiale. Come se fosse una questione di cavalleria digitale. Ma la realtà è che l’intelligenza artificiale ha ormai invaso anche lo spazio sacro dell’apprendimento, e la Cina — per ora — ha deciso di mettere un tappo.
Nel frattempo, su Weibo, il termometro emotivo dell’adolescenza tech, gli studenti si interrogano con toni da thriller distopico: “Kimi non risponde più. È iniziata la censura?” — No, ragazzo. È iniziato il gaokao. E il tuo futuro è troppo importante per lasciarlo scrivere da una rete neurale.
Dietro questa sospensione non c’è solo una questione di correttezza. C’è l’ammissione implicita che l’intelligenza artificiale è diventata un cheating enabler troppo potente. E lo sa anche l’Occidente: negli Stati Uniti, le università stanno tornando ai blue book, i quaderni cartacei da consegnare all’inizio dell’esame come reliquie di un’era pre-digitale. Ironia della storia: mentre Silicon Valley ci promette l’istruzione aumentata, i professori distribuiscono carta e penna come fossero vaccini contro l’onniscienza artificiale.
Il problema non è solo la tentazione di copiare, è il sistema stesso che sta diventando vulnerabile. La scuola — e in Cina questo è un dogma — deve essere meritocratica. Ma quando hai un GPT addestrato su migliaia di test scolastici, bastano 10 secondi per sfornare una risposta migliore del primo della classe. Altro che furto d’identità: è furto di prestazione cognitiva.
In questo contesto, la mossa delle aziende cinesi — silenziosa, priva di comunicati ufficiali, veicolata solo attraverso risposte evasive dei chatbot stessi — sa tanto di ordine venuto dall’alto. Nessuno lo dice esplicitamente, ma quando si parla del gaokao, anche le big tech si inchinano. È l’unico momento dell’anno in cui la Cina digitale rallenta, perché il paese si ferma per decidere chi potrà avanzare.
Paradossalmente, queste disattivazioni non fermano l’AI, la celebrano. Se una tecnologia è abbastanza potente da dover essere oscurata durante gli esami, vuol dire che il suo potenziale non è più contenibile dentro le mura di un’aula. È come se stessimo dicendo: “Sappiamo che può fare troppo. Per questo, almeno per tre giorni, la spegniamo”.
Ma non durerà. Perché lo sappiamo: ogni pausa è solo un reset. E una volta finiti gli esami, i chatbot torneranno più affamati di prima. Più raffinati, più integrati nei flussi educativi, meno facilmente disattivabili. Lo sa anche chi oggi li disattiva: è solo questione di tempo prima che l’AI non sia più un assistente, ma un prerequisito per sopravvivere al sistema.
E allora forse dovremmo fare pace con l’idea che copiare non è più un peccato, ma una strategia. Che sapere dove cercare è più utile che sapere cosa rispondere. E che vietare all’intelligenza artificiale di assistere un diciottenne ansioso, mentre lottano insieme per un posto all’università, è un atto di resistenza nostalgica. Un po’ come chiudere la calcolatrice perché si vuole “capire se hai studiato davvero”.
Ma forse è proprio questa la contraddizione che rende l’istruzione l’ultimo vero campo di battaglia dell’AI. Non si tratta più di insegnare, ma di decidere chi controlla il sapere. E per tre giorni a giugno, in Cina, la risposta è chiara: non gli algoritmi.
La prossima volta, però, potrebbero non chiedere il permesso.