Quando Jensen Huang, CEO di Nvidia, ha messo piede a Pechino a luglio, la scena sembrava una rock-star mondiale in tour. Accolto con Tang suit e saluto in mandarino incerto, Huang ha annunciato a media statali cinesi che Washington avrebbe presto concesso le licenze di esportazione per i suoi chip H20. Sembrava l’inizio di un trionfo senza ostacoli. Solo due settimane dopo, l’atmosfera è cambiata. La Cyberspace Administration of China ha convocato i dirigenti di Nvidia per indagare sulla sicurezza dei chip, citando pressioni dei legislatori statunitensi per l’installazione di funzionalità di tracciamento nei processori destinati all’export.
Categoria: Chip Pagina 1 di 3

Quello che sta succedendo con Nvidia in Cina è un manuale vivente di come un mercato strategico possa trasformarsi in un campo minato geopolitico, con tanto di mine messe in posizione sia da Washington che da Pechino. L’H20, nato come versione “legalmente addomesticata” delle GPU per intelligenza artificiale destinate al mercato cinese, doveva essere un compromesso elegante: abbastanza potente da restare competitivo, ma castrato quel tanto che basta per non infrangere i diktat dell’Export Administration Regulations statunitense. Poi qualcuno al Dipartimento del Commercio ha avuto l’idea geniale di monetizzare la compliance, chiedendo un 15 per cento di revenues in cambio della licenza. È come vendere un’auto con il freno a mano tirato e pretendere pure un pedaggio ad ogni chilometro.

Cina ha investito 455 miliardi di yuan, cioè 63,3 miliardi di dollari, nei primi sei mesi del 2025 nel settore dei semiconduttori. Un numero che a prima vista può sembrare impressionante, ma rispetto allo stesso periodo dell’anno precedente è calato del 9,8 per cento. Un calo che suona come un campanello d’allarme in un settore dove la competizione globale si gioca su ogni centesimo investito e ogni nanometro di tecnologia. L’apparente contraddizione però arriva da un dettaglio intrigante: l’investimento in attrezzature per semiconduttori è schizzato di oltre il 53 per cento nello stesso periodo. Una mossa che racconta una strategia ben più sottile e lungimirante di una semplice riduzione dei fondi.

Huawei ha appena lanciato un sasso nell’acqua immobile della corsa globale all’intelligenza artificiale, e l’onda che ne seguirà potrebbe non piacere a chi, oltreoceano, si è abituato a dettare le regole del gioco. Il nuovo Unified Cache Manager non è un chip, non è un’architettura hardware esotica, ma un algoritmo che sposta i dati fra HBM, DRAM e SSD con un’abilità chirurgica, massimizzando l’efficienza d’inferenza dei modelli AI di grande scala. Il paradosso è evidente: in un momento in cui il mondo corre a pagare prezzi stellari per ogni singolo gigabyte di memoria ad alta banda, Huawei risponde con software. Ed è qui che il messaggio strategico diventa pungente. Se non puoi avere il meglio dell’hardware, spremi fino all’ultima goccia quello che hai.
Quando il laboratorio di ricerca Nvidia aprì le sue porte a nuove sfide nel 2009, era ancora un microcosmo di appena una dozzina di ricercatori concentrati sul ray tracing, una tecnica di rendering sofisticata ma di nicchia. Allora Nvidia era percepita come una fabbrica di GPU per gamer esigenti, non certo come il motore di una rivoluzione tecnologica. Oggi, quello stesso laboratorio conta oltre 400 persone e ha contribuito a trasformare l’azienda in una potenza da 4 trilioni di dollari che guida la corsa globale all’intelligenza artificiale. La nuova ossessione è la physical AI, l’intelligenza artificiale che non vive soltanto nei data center, ma interagisce fisicamente con il mondo, comandando robot e macchine autonome.

Trump non ha mai amato le mezze misure, ma questa volta sembra averne inventata una. L’idea di permettere a Nvidia di vendere alla Cina una versione depotenziata del chip AI Blackwell suona come un cocktail di calcolo politico, fiuto per l’affare e volontà di riscrivere le regole della diplomazia tecnologica. Un compromesso al 30-50 per cento della potenza originale, come se un’auto di lusso venisse consegnata con il limitatore inserito. La motivazione ufficiale? Gestire il rischio tecnologico e la sicurezza nazionale. La realtà, come sempre, è più torbida.
Questo non è un semplice annuncio industriale. È un’operazione chirurgica dentro la supply chain globale dell’intelligenza artificiale, con Washington che improvvisamente si atteggia a broker delle performance dei chip. La Cina vuole capacità computazionale, e non da oggi. Gli Stati Uniti vogliono risorse strategiche e vantaggi commerciali. E nel mezzo c’è Jensen Huang, CEO di Nvidia, costretto a un balletto diplomatico in cui ogni passo costa miliardi e ogni sorriso può valere una licenza di esportazione. Il paradosso è che la Casa Bianca non sta bloccando del tutto l’export, ma lo sta monetizzando.


Non capita tutti i giorni che un gigante del chip come Nvidia si ritrovi al centro di un terremoto di fiducia da parte di uno dei mercati più ambiti al mondo. La storia dell’H20, il processore di intelligenza artificiale “su misura” per la Cina, è l’ennesimo esempio di come la tecnologia oggi sia una partita geopolitica dove il sospetto domina più della logica. Nvidia, dopo aver ottenuto il via libera da Washington per esportare l’H20 in Cina pagando il 15 per cento dei ricavi allo Stato americano, si trova accusata dai media statali cinesi di aver inserito “back door” di sorveglianza. Il tutto mentre il colosso rassicura che non ci sono “kill switch” o spyware nei suoi chip, a dimostrazione che la fiducia in ambito tecnologico è ormai un bene più fragile del silicio stesso.
Il paradosso è bello e grosso. Da un lato, Nvidia accetta di versare una percentuale sostanziosa delle sue vendite alla Casa Bianca, come pegno di un accordo fragile e geopoliticamente carico. Dall’altro, Pechino risponde con una campagna di demonizzazione che mette sotto accusa proprio il chip che dovrebbe alimentare il futuro dell’AI cinese. Il commento su Yuyuan Tantian di China Central Television è impietoso: “Un chip né avanzato, né sicuro, né rispettoso dell’ambiente, è semplicemente un prodotto da rifiutare”. Ironia della sorte, la strategia di Nvidia si ritorce contro, come un moderno gioco di specchi in cui ogni mossa è monitorata da occhi governativi. Una curiosità storica emerge dal passato, quando nel 1992 si parlava già di tentativi americani di inserire back door nei chip per motivi di sicurezza nazionale. Oggi, quella paranoia diventa mainstream, soprattutto nel contesto della guerra commerciale e tecnologica Usa-Cina.

Non ci sono backdoor. Nessun kill switch. Nessuno spyware. Parola di Nvidia. Lo ha detto forte, chiaro e con tono quasi scandalizzato, come chi si sente accusato ingiustamente da un tribunale internazionale. Il gigante dei semiconduttori ha pubblicato un post sul proprio blog per ribadire che le sue GPU non sono il cavallo di Troia dell’Intelligence americana, né il braccio oscuro di una cyber-cospirazione geopolitica. Il che, detto da chi ha in mano l’infrastruttura AI globale, suona meno come una rassicurazione e più come una dichiarazione politica in piena guerra tecnologica.

Il circo dei semiconduttori è tornato in città. Con l’annuncio improvviso del presidente Donald Trump, ospite su CNBC, secondo cui l’amministrazione statunitense introdurrà nuove tariffe sui chip già dalla prossima settimana, l’industria tecnologica globale entra in una nuova fase di instabilità controllata. O forse sarebbe meglio dire incontrollabile, perché i dettagli di queste tariffe sono, come da copione, volutamente nebulosi. Una strategia comunicativa che somiglia più a una partita di poker con carte coperte che a una politica industriale coerente.

Nel mezzo di una disputa geopolitica mascherata da strategia industriale, Huawei ha appena lanciato un guanto di sfida scintillante e pesante come una scheda HBM3: open-source totale del suo Compute Architecture for Neural Networks, il CANN. Un toolkit nato per abilitare lo sviluppo su Ascend, il processore AI del colosso di Shenzhen, che ora diventa libero. Aperto. Democratico. In perfetta controtendenza con la filosofia chiusa e blindata della rivale californiana, Nvidia, che nel frattempo difende la sua CUDA con le unghie, i denti e i codici di licenza.
Secondo Eric Xu Zhijun, presidente a rotazione con vocazione da patriota tecnologico, questa mossa renderà “Ascend più facile da usare” e accelererà “l’innovazione da parte degli sviluppatori”. Più che un’apertura, sembra un attacco laterale, un passo audace verso quell’obiettivo ossessivamente ripetuto a Pechino: autosufficienza tecnologica. Altro che “code is law”, qui è “open-source is sovereignty”.

Semiconduttori sotto controllo: la vendetta dell’intelligenza artificiale contro la mediocrità industriale
In un mondo dove ogni iPhone vale più di un paese in via di sviluppo, ci si aspetterebbe che i chip che lo animano nascano in ambienti governati da intelligenze aliene, o quantomeno da qualcosa che somigli a un cervello. Eppure, nel cuore pulsante della produzione di semiconduttori, là dove si giocano miliardi su millisecondi, regna ancora il caos silenzioso di processi manuali, decisioni soggettive e qualità a occhio. L’intelligenza artificiale è entrata in borsa, nei frigoriferi, nei calendari. Ma non nei sensori della fabbrica. Una startup di Singapore, fondata da due donne ingegnere, ha deciso di cambiare le regole del gioco con la precisione chirurgica di un wafer da 3 nanometri. E senza chiedere il permesso.

La notizia è sottile come una lama e taglia in profondità: la Cyberspace Administration of China ha convocato ufficialmente Nvidia per chiedere conto dei presunti rischi di sicurezza legati ai chip H20, puntando il dito su una questione tanto tecnica quanto geopolitica: il cosiddetto “back door safety”. In parole povere, Pechino vuole sapere se quei chip possono essere tracciati o controllati da remoto, e se sì, da chi.
Chi mastica un po’ di strategia globale lo sa già: questa non è solo una questione di ingegneria dei semiconduttori. È una schermaglia digitale in una guerra fredda 2.0 dove il controllo delle AI, della potenza computazionale e dei dati non è più solo una priorità industriale, ma una questione di sovranità. E quando la Cina chiama, non lo fa per cortesia istituzionale. Lo fa perché ha il coltello dalla parte del silicio. Nvidia, da parte sua, è costretta a giocare una partita a scacchi bendata, dove ogni chip può diventare un caso diplomatico.

Chiunque pensasse che la guerra dei chip fosse solo una questione tra Stati Uniti e Cina, tra embargo e retorica bellica digitale, dovrà aggiornare il proprio modello mentale. Elon Musk, con la solita dose di teatralità e disprezzo per le mezze misure, ha appena piazzato un altro scacco alla geopolitica del silicio firmando un accordo da 16,5 miliardi di dollari con Samsung per la produzione del chip AI6, destinato a pilotare il futuro non solo delle Tesla ma, potenzialmente, del concetto stesso di automazione. Musk lo ha annunciato con un post notturno su X (ovviamente), lasciando intendere che l’accordo potrebbe valere “molto di più” in termini di output. Le parole usate? “La sua importanza strategica è difficile da sopravvalutare”. E per una volta, non sembra iperbole.

Il paradosso è servito, e come sempre la Silicon Valley e Shenzhen giocano una partita a scacchi con regole che cambiano ogni giorno. Gli Stati Uniti vietano l’export delle GPU Nvidia H100 e A100 in Cina, e la Cina risponde con un sorriso sornione, trasformando l’embargo in un’opportunità di business. A Shenzhen, cuore pulsante del tech cinese, una dozzina di aziende boutique sta facendo fortuna riparando proprio quei chip che ufficialmente non dovrebbero neanche trovarsi nel Paese. È l’ironia della geopolitica tecnologica: vieti un prodotto e ne moltiplichi il valore di mercato, creando un’industria parallela che prospera nell’ombra ma con margini da far impallidire i listini di Wall Street.

Intel, una volta simbolo indiscusso dell’industria dei semiconduttori, si trova oggi in un vicolo cieco, segnato da una riduzione della forza lavoro superiore al 20% rispetto all’anno scorso, come annunciato giovedì. Il nuovo CEO, Tan Lip-bu, ha presentato un piano che suona come una bocciatura implicita del passato: “niente più assegni in bianco”, un manifesto di rigore finanziario che prelude a una trasformazione radicale. Quel colosso che dominava il mercato dei chip per PC e server ha perso terreno, soffocato da scelte gestionali sbagliate e da una strategia che sembrava dimenticare la realtà del mercato.

Taiwan non sta più giocando a fare il fornitore per conto terzi dei giganti americani e cinesi. Ha appena lanciato una mossa da 510 miliardi di dollari che somiglia più a una dichiarazione di guerra industriale che a un piano economico. La chiamano “Ten Major AI Infrastructure Projects”, ma sarebbe più corretto ribattezzarla “Operazione Sovranità Digitale”. L’obiettivo? Trasformare l’isola nella prima “smart technology island” del mondo e, incidentalmente, scalzare chiunque altro osi anche solo pronunciare la parola “AI” senza pagare dazio a Taipei.

Nvidia annuncia un passo che, in apparenza, potrebbe sembrare un semplice aggiornamento tecnico ma che, in realtà, segna una frattura profonda nel paradigma del calcolo moderno. Portare CUDA, la piattaforma software di punta per l’elaborazione parallela e l’intelligenza artificiale, su architettura RISC-V non è solo un’operazione tecnica: è un gesto di rottura contro i sistemi chiusi e proprietari che dominano il settore da decenni. La dichiarazione di Frans Sijstermans, vicepresidente dell’ingegneria hardware di Nvidia, pronunciata alla RISC-V Summit di Shanghai, lancia un segnale netto a chi crede ancora che la supremazia tecnologica si basi esclusivamente su architetture complesse e vincolate da licenze esclusive.

Quando Sam Altman dice “un milione di GPU entro fine anno” non sta vendendo sogni a venture capitalist annoiati, sta ridisegnando la mappa geopolitica dell’AI. Chi pensa che questa sia solo un’altra corsa hardware non ha capito niente. Qui non si tratta di aggiungere qualche zero ai data center, qui si tratta di sradicare la vecchia idea che la scarsità computazionale fosse il freno naturale dell’intelligenza artificiale. Altman ha già dato ordine di puntare a un 100x, e lo dice con quella calma inquietante tipica di chi ha già visto la fine della partita.

L’arte della diplomazia tecnologica si sta riscrivendo sotto i nostri occhi con un sipario fatto di chip, politica e promesse digitali. Wang Wentao, ministro del commercio cinese, e Jensen Huang, il CEO taiwanese-americano di Nvidia, hanno stretto una mano che vale più di un semplice accordo commerciale: è una sfida lanciata a un futuro in cui l’intelligenza artificiale sarà il campo di battaglia più ambito e controverso. Se vi aspettavate uno scontro frontale, vi sbagliate: l’incontro ha mostrato un pragmatismo raro, in un mondo diviso tra sanzioni e sospetti, tra protezionismo e apertura di mercato.

Quando il più grande produttore di semiconduttori al mondo decide di alzare le previsioni di crescita, gli investitori non chiedono spiegazioni, applaudono. TSMC ora parla di un incremento del 30 per cento dei ricavi in dollari per il 2025, un bel salto rispetto alle stime precedenti. È l’ennesima conferma che l’ossessione globale per l’intelligenza artificiale non si sta sgonfiando, anzi continua a drogare i bilanci di chi fabbrica i mattoni su cui si costruisce questa nuova economia cognitiva. Perché è esattamente questo che sono i chip di TSMC, i neuroni artificiali senza i quali nessun modello generativo esisterebbe. Meta, Google, Amazon, tutti continuano a bruciare miliardi per riempire data center, e Nasdaq festeggia come un bambino a Natale.

Jensen Huang è atterrato a Pechino con il sorriso di chi sa di avere vinto almeno un round nella guerra tecnologica più costosa del decennio. Il fondatore e CEO di Nvidia, vestito con la sua solita giacca di pelle da rockstar dell’hardware, non è venuto per stringere mani e scattare foto, ma per riaffermare un principio quasi banale nel mondo reale ma rivoluzionario nel teatro geopolitico dell’intelligenza artificiale: “il mercato cinese non si può ignorare”. Lo ha detto, più o meno, tra un meeting con i funzionari governativi e un’apparizione alla China Council for the Promotion of International Trade. Solo che stavolta la frase non è retorica. È una minaccia sottile a Washington e un inchino strategico a Pechino.

L’intelligenza artificiale non è più un gioco tra ingegneri, è diventata una partita di scacchi giocata con silicio e sanzioni. Huawei, mossa dopo mossa, sta cercando di insinuarsi nei territori controllati da Nvidia e AMD, proponendo con garbo asiatico piccole quantità dei suoi chip Ascend 910B in regioni strategicamente sensibili come Medio Oriente e Sud-est asiatico. Ma sotto questo traffico in apparenza marginale si nasconde un’operazione chirurgica di penetrazione nei mercati più caldi della nuova Guerra Fredda tecnologica.

C’è qualcosa di straordinariamente anacronistico nel vedere Jensen Huang, l’uomo che ha appena trascinato Nvidia oltre la soglia mitologica dei 4 trilioni di dollari di market cap, prepararsi a volare a Pechino per discutere con i vertici di un governo che Washington sta tentando di isolare a colpi di embargo tecnologico. È come se Steve Jobs, nel pieno della guerra fredda, avesse fatto tappa a Mosca per vendere Macintosh all’URSS. Ma qui non si tratta solo di affari. Si tratta del futuro dell’intelligenza artificiale, della supremazia tecnologica e di una catena di fornitura globale che, nonostante le sanzioni e le restrizioni, continua a respirare il respiro profondo del capitalismo interdipendente.

E così, dopo un anno intero passato a guardar sfilare con invidia i notebook “Copilot Plus” in vetrina, come ragazzini fuori da un Apple Store, ecco che anche i desktop PC iniziano a fiutare il profumo dell’intelligenza artificiale locale. Non perché Microsoft abbia cambiato idea, ovviamente. Ma perché Intel ha deciso che è ora di smettere di fare figuracce e dare finalmente ai suoi chip una NPU che non sembri uscita dal 2018. La svolta si chiama Arrow Lake Refresh, ed è un nome tanto poco sexy quanto potenzialmente epocale per chi ancora crede che un tower sotto la scrivania non sia un pezzo d’antiquariato.

C’è lo racconta REUTERS se Samsung fosse un giocatore di poker, ora si troverebbe con un bel tris… di problemi. E nessuna carta vincente in mano. Mentre il mondo brucia i watt dietro a ogni bit di intelligenza artificiale, la più grande produttrice di chip di memoria al mondo si sta muovendo con l’agilità di una petroliera in una gara di jet ski. Un tempo sinonimo di innovazione implacabile, oggi Samsung arranca dietro SK Hynix e Micron, entrambi decisamente più svegli quando si tratta di cavalcare la rivoluzione dell’HBM, quelle memorie ad alta larghezza di banda che alimentano il cuore pulsante dell’IA nei data center globali.

Quando l’America decide di regalare qualcosa alla Cina, non si tratta mai di panda o hamburger. Di solito si tratta di silicio, o meglio, del software che permette a chiunque, ovunque, di disegnare il cuore pulsante del mondo moderno: il chip. Dopo anni di schermaglie tecnologiche, restrizioni e guerre a colpi di export control, gli Stati Uniti hanno improvvisamente deciso di togliere il guinzaglio a Siemens, Synopsys e Cadence, i tre pilastri dell’EDA, ovvero Electronic Design Automation, lasciandoli liberi di vendere i loro strumenti di progettazione di semiconduttori alla Cina. E no, non è uno scherzo. È geopolitica in tempo reale, nella sua versione più sofisticata: quella che si scrive con righe di codice e clausole di licensing.

Huawei ha appena rilasciato come open source due modelli della sua famiglia Pangu e una serie di tecnologie di reasoning. Una mossa concertata non per mera filantropia tech ma per collocare i suoi chip Ascend nel cuore di migliaia di servizi enterprise. L’obiettivo è chiaro: chi adotta i modelli Pangu, sempre più ottimizzati solo per Ascend, sarà poi spinto – quasi inevitabilmente – verso l’hardware proprietario Huawei.
La strategia non è solo convoluzione hardware‑software, ma un’architettura verticale simile a quella di Google: chip, software, toolchain, piattaforma cloud. Questo crea un lock-in pesante, attirando milioni di sviluppatori e partner globali. Alla fine apri il modello perché è gratis, ma poi paghi l’integrazione e la performance via Ascend.

Per anni ci siamo raccontati che i dati fossero il nuovo petrolio. Una narrazione comoda, elegante, quasi poetica, che dava un senso alle guerre silenziose combattute a colpi di privacy policy e scraping selvaggi. Ma mentre l’industria dell’intelligenza artificiale entra in una fase muscolare, fatta di centri dati da miliardi e chip che costano quanto miniere d’oro, una nuova verità emerge, brutale e ineludibile: è il compute, non i dati, a decidere chi guida e chi insegue.
Il report di Konstantin Pilz, James M. S., Robi Rahman e Lennart Heim, che analizza oltre 500 supercomputer AI tra il 2019 e il 2025, è una specie di radiografia del cuore pulsante dell’economia cognitiva. Altro che narrativa da laboratorio accademico. Qui si parla di infrastrutture pesanti, di consumi energetici che rivaleggiano con piccole nazioni, e di una concentrazione di potere computazionale che fa impallidire anche i più accaniti critici del capitalismo digitale.
Il trend più impressionante? Le performance di calcolo stanno raddoppiando ogni 9 mesi. Avete letto bene: siamo in un’era in cui la velocità con cui raddoppiano le capacità computazionali supera persino la mitica Legge di Moore. E ogni raddoppio non è un semplice upgrade. È un salto quantico che permette ad alcune entità poche, selezionatissime di costruire modelli sempre più grandi, sempre più potenti, sempre più inaccessibili.

Non chiamatela solo “sostituzione tecnologica”, perché la Cina non sta semplicemente cercando alternative ai chip americani. Sta costruendo un nuovo culto della resilienza artificiale, e lo sta facendo con una determinazione che gronda di strategia industriale, orgoglio sovranista e calcolo geopolitico. La notizia che Sophgo, produttore cinese di semiconduttori, abbia adattato con successo la sua compute card FP300 per far girare il modello di ragionamento DeepSeek R1, non è un semplice annuncio tecnico. È un atto di guerra, anche se siliconica. È l’ennesimo tassello del grande mosaico che Pechino sta costruendo per liberarsi dal giogo delle GPU Nvidia e dall’ecosistema software che, fino a ieri, sembrava imprescindibile per chiunque volesse fare intelligenza artificiale ad alto livello.

Microsoft ha annunciato un ritardo significativo nella produzione del suo chip AI di nuova generazione, Maia, noto anche come Braga. La produzione di massa, inizialmente prevista per il 2025, è stata posticipata al 2026. Secondo quanto riportato da Reuters, la causa principale del ritardo sono stati cambiamenti imprevisti nel design del chip, problemi di personale e un elevato turnover all’interno del team di sviluppo.
Questo ritardo pone Microsoft in una posizione delicata, soprattutto considerando la rapida evoluzione del mercato dei chip AI. Nvidia, con il suo chip Blackwell, ha già stabilito uno standard elevato, e il ritardo di Microsoft potrebbe significare che il chip Maia sarà meno competitivo al momento del lancio.

Se pensavate che la sfida tra colossi dell’intelligenza artificiale fosse solo una questione di algoritmi e modelli, vi siete persi la partita più sottile ma decisiva: quella dell’hardware. OpenAI, da sempre uno dei maggiori clienti di Nvidia, ha iniziato a spostare parte del proprio carico di lavoro verso i chip AI più economici di Google, i celebri TPU (Tensor Processing Unit). Un cambio di rotta che somiglia a una manovra tattica degna di un generale digitale, in una battaglia che si gioca anche – e forse soprattutto – sui costi, sull’efficienza e sul controllo tecnologico.

Un nome che suona come un asteroide dallo spazio, ma è l’ultima arma di Pechino nella guerra fredda dei chip: meteor‑1. Messo a punto dal Shanghai Institute of Optics and Fine Mechanics insieme alla Nanyang Technological University, è un chip fotonico ottico “molto parallelo” capace di erogare una potenza teorica di 2 560 TOPS a 50 GHz – numeri che lo piazzano fianco a fianco con le GPU di punta di Nvidia, il cui RTX 4090 arriva a 1 321 TOPS e il più recente RTX 5090 tocca 3 352 TOPS. A qualcuno suona come un colpo di avvertimento.

Nel cortile sempre più ristretto del tech globale, Huawei non solo sopravvive, ma orchestra una sinfonia propria. HarmonyOS 6 non è solo un aggiornamento di sistema operativo. È una dichiarazione di guerra, gentile quanto spietata, al duopolio Apple-Google. Ma, come in ogni opera orientale, l’apparente lentezza del gesto nasconde una potenza zen.
All’annuale Developer Conference, Richard Yu – lo Steve Jobs del delta del fiume delle Perle – ha messo sul tavolo la beta di HarmonyOS 6, insieme a una nuova generazione di agenti AI, i modelli Pangu 5.5 e l’architettura CloudMatrix 384. È il tentativo più ambizioso della compagnia per costruire un ecosistema software cinese a prova di sanzioni statunitensi.

Huawei ha svelato un’architettura che non si limita a rincorrere Nvidia: la scavalca. CloudMatrix 384 è il campo dove 384 NPU Ascend 910C e 192 CPU Kunpeng si uniscono in un “AI supernodo” ad altissima banda, bassa latenza, con bus unificato – nient’altro che una centrale di calcolo su misura per LLM spinti come DeepSeek R1 da 671 miliardi di parametri.
Il documento tecnico rilasciato su arXiv espone numeri che suonano come sfida: fase prefill con 6.688 token/s per NPU su prompt da 4.000 token (4,45 token/s per TFLOPS), fase decode con 1.943 token/s e latenza inferiore a 50 ms per token (1,29 token/s per TFLOPS). Più performante dell’H800 (e perfino dell’H100 in SGLang), dice Huawei, con cifre superiori sia in throughput sia in efficienza reale.

Nel panorama tecnologico odierno, dominato da Nvidia con la sua piattaforma CUDA, Amazon ha deciso di lanciare la sua sfida nel mercato dei chip per l’intelligenza artificiale (AI). Con l’introduzione dei chip personalizzati come Trainium e Inferentia, sviluppati dalla sua controllata Annapurna Labs, Amazon mira a ridurre la dipendenza da fornitori esterni e a offrire soluzioni più economiche e ottimizzate per i carichi di lavoro AI.

Pechino, luglio. Il termometro schizzerà sopra i 35 gradi, ma non sarà solo colpa del clima monsonico. La temperatura vera sarà quella che si respirerà tra gli stand climatizzati della China International Supply Chain Expo, dove – sorpresa? – farà il suo debutto una delle multinazionali americane più sorvegliate dell’era digitale: Nvidia.
Quella Nvidia che Washington tenta di tenere al guinzaglio con regolamenti tagliati su misura, come si fa con un cane che morde troppo forte. Quella Nvidia che, tra un H100 proibito e un H20 castrato, adesso prepara un nuovo giocattolo per Pechino: il B30, una versione “compliant” con le restrizioni americane, un chip in stile Giano bifronte, progettato per obbedire a due padroni che si detestano.

In un’epoca dove i transistor valgono più del petrolio e i wafer hanno il peso geopolitico delle testate nucleari, la mossa di Taiwan sembra più una fiondata al cuore che una formalità amministrativa. Con un aggiornamento della Strategic High-Tech Commodities Entity List, l’Isola ha inserito Huawei Technologies e Semiconductor Manufacturing International Corp (SMIC) in una blacklist che suona più come un ultimatum al Dragone che un banale documento ministeriale.

AMD ha acceso i riflettori su sé stessa, ma lo spettacolo vero non era sul palco. Il lancio della nuova serie MI350, celebrata con il solito repertorio di slide scintillanti e testimonial di peso, ha in realtà lasciato il pubblico – e soprattutto gli investitori – con lo sguardo rivolto al futuro. E quel futuro ha un nome: MI400. Un numero, una promessa, forse una scommessa colossale per entrare finalmente nel ring di Nvidia.

Se fosse davvero così facile costruire chip per l’intelligenza artificiale, allora perché Jensen Huang sembra uscito da un rave tech senza fine, invecchiato di dieci anni in dodici mesi ma ancora in cima alla catena alimentare dell’AI?
Parlando con l’aria stanca ma trionfante a Parigi — la città che ti fa sentire elegante anche quando parli di semiconduttori — il CEO di Nvidia ha mostrato con l’aria di chi la sa lunga che non è minimamente minacciato dal fatto che i suoi clienti più importanti, da Amazon Web Services a Microsoft fino a OpenAI, stiano tentando di fabbricare chip proprietari. Il tono? Mezzo ironico, mezzo “siete tutti i benvenuti a provarci, ma fallirete”.

Lisa Su, CEO di AMD, ha dichiarato che la domanda di inferenza AI crescerà dell’80% all’anno. Ma dietro questa previsione ottimistica si cela una realtà più complessa.
Nel 2024, AMD ha generato oltre 5 miliardi di dollari di entrate dalle sue GPU Instinct, con previsioni di crescita significativa nel segmento AI. Su ha dichiarato che la società prevede che le entrate annuali derivanti dai chip AI raggiungano “decine di miliardi di dollari nei prossimi anni”.