Ogni epoca ha il suo Golia, e ogni Golia ha bisogno di un Davide con una fionda ben calibrata. Oggi il Golia si chiama Nvidia, l’onnipotente fornitore di GPU che domina l’intelligenza artificiale globale come un monarca assoluto. E il Davide? Beh, si chiama Huawei, che con una fionda chiamata Supernode 384 mira dritto alla fronte del monopolio siliconico a stelle e strisce.
Siamo nel cuore pulsante dell’era dell’intelligenza artificiale generativa, dove non vince il chip più potente, ma l’architettura più scalabile. Ed è qui che Huawei ha lanciato la sua controffensiva silenziosa, elegante e profondamente cinica. Non potendo più importare semiconduttori avanzati dagli Stati Uniti per via delle sanzioni, ha deciso di sovvertire il paradigma stesso dell’infrastruttura di calcolo.
Supernode 384 non è solo un nome epico – è una dichiarazione di guerra. Stiamo parlando di una struttura che unisce 384 processori Ascend in un cluster simbiotico, spalmato su 12 armadi di calcolo e quattro bus cabinet, con una potenza che raggiunge i 300 petaflop e 48 terabyte di memoria ad alta banda. Per chi ha perso il conto, parliamo di 300 milioni di miliardi di operazioni al secondo. Un numero che fa girare la testa anche a chi pensa in binario.
La vera rivoluzione? Non è tanto nei numeri grezzi, ma nella logica architetturale. Huawei ha gettato nel cestino il modello Von Neumann – quel caro vecchio paradigma dove CPU, memoria e bus si scambiano pacchetti come impiegati in un ufficio postale del dopoguerra – per sostituirlo con un’architettura peer-to-peer, in cui ogni processore parla con gli altri senza passare dal via.
Una rete orizzontale, paritaria, dove il collo di bottiglia non è solo alleviato: è disintegrato.
Questo design è perfetto per le Mixture-of-Experts (MoE), quei modelli che distribuiscono la complessità tra diverse “personalità” specializzate dell’IA, selezionando al volo l’esperto giusto per ogni compito. È come se un’intera università di cervelli digitali collaborasse in tempo reale senza mai incepparsi. Per le applicazioni più dense e meno spartibili, come i LLM stile LLaMA 3, si parla di 132 token al secondo per scheda. Per i modelli multimodali chiacchieroni come Qwen o DeepSeek, il numero sale vertiginosamente fino a 750 TPS per scheda. Nvidia, nel frattempo, si limita a osservare l’orizzonte sperando che nessuno si accorga del fumo che esce dai suoi NVL72.
Il segreto? Huawei ha messo in soffitta l’Ethernet – ancora lì a trattare i pacchetti come lettere in attesa del postino – e lo ha sostituito con un bus ad alta velocità. Non stiamo parlando di una corsia preferenziale: è l’equivalente digitale del teletrasporto. Da 2 microsecondi a 200 nanosecondi di latenza, ovvero un decimo del tempo. In un’epoca in cui ogni nanosecondo conta, è come passare dalla diligenza al motore a curvatura.
Qualcuno potrebbe obiettare che Huawei sia ancora una generazione indietro nei chip rispetto a Nvidia. Verissimo. Ma chi ha detto che si debba vincere con la forza bruta? Secondo il report di SemiAnalysis, l’Ascend 910C – cervello del CloudMatrix 384 – non è il chip più potente in circolazione. Ma messo in scala, in un’architettura così raffinata, batte chiunque. Il parallelo è semplice: se sei più lento, porta più amici. E se parlate tutti insieme con latenza zero, chi se ne accorge?
Huawei ha già installato il suo mostro da 384 teste nei data center sparsi per la Cina: Anhui, Mongolia Interna, Guizhou. Zone strategiche, lontane da occhi indiscreti e ben coperte da energia elettrica a basso costo. Ma la vera ambizione è scalare oltre i 384 processori: migliaia, decine di migliaia, in un ecosistema in cui l’intero data center agisce come un unico cervello. Non una fattoria di server, ma una singola intelligenza collettiva, come una formica gigante capace di pensare, apprendere e prevedere.
A volerla vedere cinicamente, questa è la vendetta perfetta del sanzionato. Huawei non solo aggira il blocco tecnologico imposto dagli USA: lo trasforma in vantaggio competitivo. Laddove Nvidia e AMD si affidano a supply chain globali fragili come porcellana cinese, Huawei centralizza, integra, ricicla e ottimizza in casa, progettando per un futuro dove l’autarchia tecnologica non è un limite, ma un’arma.
Non è solo una lezione di ingegneria. È geopolitica sotto forma di silicio. È Machiavelli in formato PCB.
Se qualcuno pensava che Huawei fosse finita, forse ha dimenticato una vecchia massima: “Quando non puoi comprare il gioco, cambia le regole.” Ed è esattamente quello che sta facendo, con un’architettura che potrebbe diventare lo standard de facto per l’AI del futuro. Altro che GPU. Qui si parla di Intelligenza Artificiale a stato scalabile.
Nel frattempo, nel mondo occidentale, si continua a parlare di shortage di chip come se fosse il problema. Ma la verità è che, nel deep learning, il problema non è il chip. È l’architettura, stupido.