I cinesi non stanno copiando. Stanno innovando. E in silenzio, con l’ostinazione tipica delle dinastie millenarie, hanno messo in scacco gli esperti dell’Occidente con tre semplici lettere: MoGE.

Non è uno scherzo fonetico, ma l’acronimo che potrebbe far tremare OpenAI, Google DeepMind e gli altri signori del codice. Parliamo di Mixture of Grouped Experts, una variazione muscolosa, ingegnerizzata con precisione chirurgica, dell’approccio Mixture of Experts (MoE) già utilizzato da modelli come DeepSeek-V3.

E il colpo di scena? È tutto made in Huawei, con buona pace di Washington, che continua a distribuire sanzioni come fossero biscotti secchi al tavolo della diplomazia internazionale. Il risultato: un colosso come Huawei, apparentemente isolato, riesce a sfidare la crème della Silicon Valley sfruttando il proprio hardware proprietario, l’Ascend NPU.

La notizia non è solo tecnica, è geopolitica travestita da paper accademico.

Huawei ha radunato 78 menti tra core contributor e ricercatori ausiliari per dare vita a qualcosa che non è solo un nuovo modello linguistico, ma un simbolo di autonomia tecnologica. Il Pangu LLM, nella sua incarnazione più ambiziosa, Pangu Ultra, sfoggia 135 miliardi di parametri e promette di mangiarsi in un sol boccone i benchmark occidentali, soprattutto quelli in lingua cinese.

La chiave? Un carico di dati da 13,2 trilioni di token, estensioni a contesto lungo e una flotta di 8.192 chip Ascend che fanno da cavalleria digitale.

Il paradosso è gustoso: mentre gli Stati Uniti vietano l’export dei chip Nvidia, la Cina ne sviluppa di propri. Gli americani puntano sulla superiorità hardware, ma dimenticano che il software e soprattutto l’architettura può essere il cavallo di Troia. L’algoritmo batte il silicio, almeno in certe mani. È la lezione che arriva da Shenzhen.

Secondo Huawei, la nuova architettura MoGE risolve un tallone d’Achille della MoE: l’attivazione disomogenea degli “esperti” quei sottocomponenti specializzati che compongono i modelli su larga scala. MoE è intelligente, ma inefficiente. MoGE invece raggruppa, bilancia e sfrutta meglio le risorse, come se una squadra di esperti avesse finalmente imparato a non sovrapporsi, a passarsi la palla come nel tiki-taka catalano degli anni d’oro.

Questo piccolo grande trucco architetturale si traduce in un’efficienza superiore, tanto nell’addestramento quanto nell’inferenza. E soprattutto, in un tempo storico in cui le LLM devono affrontare compiti a contesto lungo come la comprensione di documenti, conversazioni articolate o contesti semantici a grana fine Pangu sembra giocare in casa.

Per inciso: il nome non è scelto a caso. Pangu, nella mitologia cinese, è il gigante che separò cielo e terra, dando origine al mondo. Ecco, Huawei suggerisce con discreta ironia che questo modello potrebbe fare altrettanto con il caos dell’intelligenza artificiale: separare l’epoca della dipendenza da quella dell’autosufficienza.

E in questo, Pangu non è solo un modello linguistico. È una dichiarazione di intenti. È il gesto tecnico di chi, sotto embargo, riscrive le regole del gioco.

Nel paper, gli autori non si limitano a celebrare benchmark. C’è un’ambizione più sottile: dimostrare che l’integrazione verticale hardware-software co-design non è solo uno slogan da keynote. È un vantaggio strategico, tangibile, ripetibile. Una strada percorribile da chi non ha la Silicon Valley, ma ha il controllo totale della propria catena del valore. Una lezione che l’Europa dovrebbe tatuarsi.

Nel confronto diretto, Pangu tiene testa e supera DeepSeek-V3, Qwen2.5-72B (di Alibaba, guarda caso padrona anche del South China Morning Post che ha dato rilievo alla notizia) e persino LLaMA-405B di Meta. Soprattutto nelle prove di comprensione generale, ragionamento e contesto lungo.

Un ricercatore cinico potrebbe dire: “Certo, sono test in cinese, è ovvio che vincano.” Ma la verità è più complessa. Il risultato migliore sta nella efficienza marginale per token elaborato. In tempi in cui ogni millisecondo di inferenza costa denaro, energia e CO₂, questa è la vera moneta del potere.

Questa non è solo una storia di algoritmi e chip. È una narrazione sulla capacità di reinventarsi sotto pressione, di rispondere all’embargo non con piagnistei ma con architetture migliori. È come se Galileo, bandito dal Vaticano, decidesse di costruirsi un telescopio migliore per dimostrare ancora una volta che la Terra non è al centro del mondo.

Certo, l’ecosistema conta. Huawei non ha l’open source di Meta, né l’hype globale di OpenAI. Ma ha un mercato domestico immenso, governi amici, e soprattutto un timing impeccabile. Mentre l’Occidente discute di AGI, copyright e diritti morali dei chatbot, la Cina ottimizza.

Perché alla fine la partita non si vince con il primo prototipo, ma con la versione 3.0, quella che scala, si vende, e si integra nelle supply chain. E qui Huawei ha un vantaggio sleale: conosce la resilienza, ha imparato a vivere senza Nvidia, senza ARM, e adesso si prende la scena proprio grazie a quella solitudine forzata.

Si dice che i samurai lucidassero le spade di notte, in silenzio, mentre gli altri dormivano. Huawei ha lucidato Pangu nell’ombra, lontano dai riflettori occidentali, e adesso sfodera la lama: lunga, elegante, perfettamente bilanciata.

E soprattutto, costruita in casa.