Baidu ha presentato Ernie 5.0 senza troppi fuochi d’artificio, ma con numeri che fanno rumore. Un modello multimodale da 2,4 trilioni di parametri, capace di gestire testo, immagini, audio e video, mentre l’assistente AI con lo stesso nome ha superato i 200 milioni di utenti attivi mensili. In altre parole, non è un esperimento da laboratorio, ma un’infrastruttura già in produzione, usata ogni giorno da una popolazione digitale grande quanto un continente.

Ernie 5.0 è il modello più avanzato mai rilasciato dal gruppo di Pechino e si basa su un’architettura mixture of experts ultra-large con attivazione estremamente sparsa. In pratica, durante ogni inferenza viene utilizzato meno del 3 per cento dei parametri disponibili. Il risultato è una combinazione che i CTO sognano da anni: prestazioni elevate e costi computazionali relativamente contenuti. Una risposta indiretta ma piuttosto chiara a chi continua a pensare che la corsa all’AI sia solo una gara a chi brucia più GPU.

I benchmark raccontano una storia interessante. Secondo la classifica pubblicata da LMArena, Ernie-5.0-0110 è attualmente il primo modello cinese per performance testuali e l’ottavo a livello globale, davanti a modelli statunitensi di primo piano come GPT-5.1-High di OpenAI e Gemini-2.5-Pro di Google. Non è ancora dominio assoluto, ma è abbastanza per mettere in discussione la narrativa rassicurante di un gap tecnologico strutturale e permanente.

Il contesto industriale spiega molto. Kunlunxin Technology, la controllata di Baidu specializzata in chip AI, ha depositato in modo confidenziale la documentazione per una IPO a Hong Kong. È un segnale coerente con la spinta di Pechino verso l’autosufficienza tecnologica, soprattutto nei semiconduttori, mentre le restrizioni statunitensi continuano a stringere l’accesso ai chip avanzati. Ambiguità su Nvidia incluse.

Demis Hassabis ha dichiarato a Davos che la Cina sarebbe ancora sei mesi indietro rispetto agli Stati Uniti e che manca di vere innovazioni creative. Forse. Ma intanto l’ecosistema cresce. I modelli derivati dalla famiglia Qwen di Alibaba hanno superato quota 200 mila, primo caso globale per un progetto open source, con un miliardo di download cumulativi. Nel frattempo startup come Zhipu AI e MiniMax si quotano a Hong Kong puntando tutto sull’efficienza dei costi, mentre DeepSeek continua a pubblicare paper tecnici invece di slide di marketing.

Il messaggio è semplice e un po’ scomodo. Anche sotto pressione geopolitica e tecnologica, l’AI cinese non sta rallentando. Sta ottimizzando, distribuendo, scalando. Chi continua a misurare il progresso solo in trilioni di parametri rischia di guardare il dito mentre la luna cambia traiettoria.