La vendetta cinese contro l’AI dei miliardari californiani

L’intelligenza artificiale non è più una guerra fredda, ma un’equazione ad alta temperatura. E nel mezzo di questo reattore nucleare di modelli, GPU e miliardi di dollari, arriva DeepSeek, un nome che fino a sei mesi fa suonava più come una skin rara su qualche piattaforma di gaming asiatico che il prossimo incubo di OpenAI o Google DeepMind.

E invece eccoci qui: un white paper rilasciato con chirurgica teatralità accademica, “Insights into DeepSeek-V3: Scaling Challenges and Reflections on Hardware for AI Architectures”, e il mercato dell’AI open-source implode per un attimo. Azioni giù, menti su, e improvvisamente tutti parlano di MoE, Nvidia H800 e di quel misterioso co-design hardware-software che sembra la parola d’ordine per costruire un mostro cognitivo a costi ridicoli.

Il segreto? L’hardware. Ma non quello da vetrina dei keynote americani, no. Roba ottimizzata, maledettamente consapevole delle limitazioni imposte dall’embargo statunitense. DeepSeek ha fatto incetta delle Nvidia H800, GPU create per il mercato cinese in ottemperanza ai vincoli USA, poi bandite nel 2023. Hanno fatto scorta come una nonna durante la Guerra Fredda. E oggi ne raccolgono i frutti.

Il modello DeepSeek-V3 è stato addestrato su 2.048 H800, e no, non sono numeri buttati lì per fare scena. Sono la prova che se conosci i limiti della tua architettura puoi disegnare un’intelligenza artificiale più furba, più scalabile e – soprattutto – più economica. Un’eresia per chi vive a suon di parametri, flop/s e open bar di GPU A100.

Ma DeepSeek non si è fermata alla conta dei chip. Il vero colpo da maestro è stato l’approccio “hardware-aware”: ogni linea di codice, ogni architettura neurale è stata progettata tenendo conto della fisica, del flusso dei dati tra le GPU, della memoria disponibile. Niente sprechi, niente megalomanie. Ottimizzazioni sui margini: inferenza più veloce, costi tagliati, modelli più leggeri e più furbi.

L’approccio vincente, però, è il modello Mixture-of-Experts. L’AI, invece di farsi carico dell’intero universo cognitivo in un colpo solo, divide il lavoro: sottoreti (“esperti”) che si attivano selettivamente in base al contesto. Solo una piccola porzione del modello lavora per ogni input, consumando meno risorse, rispondendo più in fretta, mantenendo la stessa (o migliore) qualità.

È una mossa talmente potente che persino Alibaba ha copiato senza ritegno, impiegando la stessa architettura nella sua nuova linea Qwen3. E sì, per un breve momento Qwen3 ha anche sorpassato DeepSeek-V3 nelle classifiche di LiveBench. Ma chi ha dettato il ritmo? DeepSeek, che con V3 e R1 ha portato la Cina al centro dell’arena AI globale. Altro che “copiamo Silicon Valley”.

In tutto questo, la narrazione da start-up indie fa solo da copertura. DeepSeek è posseduta da High-Flyer, un hedge fund di Pechino. La finanza speculativa che finanzia la speculazione cognitiva. Un circolo perfetto, da far invidia alle holding USA. Con movimenti chirurgici e senza farsi accecare dai riflettori, hanno pubblicato R1 a gennaio – un modello focalizzato sul ragionamento – e poi hanno zittito il mondo con aggiornamenti tecnici costanti, mini-release, tool per le dimostrazioni matematiche (Prover-V2) e voci di corridoio sul successore.

Nel frattempo, Baidu ruggisce con il suo Ernie 4.5 Turbo. Multimodalità e prezzo del 40% inferiore a V3, almeno secondo il marketing. Ma la verità è che DeepSeek ha già spostato l’asticella. Il vero gioco non è nel rincorrere il benchmark più alto, ma nel dettare le condizioni del costo per token. Chi riesce ad addestrare e far girare un modello da 100 miliardi di parametri su hardware “limitato” vince, punto.

La Cina lo ha capito prima di tutti: open-source non significa più “gratis e confuso”, ma “strategico e scalabile”. Una piattaforma di influenza, non una reliquia accademica. L’open-source oggi è una leva geopolitica, un’arma mimetizzata da codice GitHub.

E nel mezzo, DeepSeek continua il suo silenzio studiato. Ogni tanto una release minore, ogni tanto un white paper che scardina un pezzo di ortodossia. Nessuna roadmap dichiarata. Nessun annuncio trionfale. Solo scroll magnetico e occhi ben piantati nel codice.

Da bar: “Sai cos’è davvero un’intelligenza artificiale potente? Quella che riesce a far crollare le azioni di Nvidia… senza mai parlare in pubblico.” Paradossalmente, la loro arma più potente non è il modello. È il silenzio.

La parola chiave? DeepSeek-V3. Con MoE, Nvidia H800 e scaling come secondarie. Ma il concetto vero è uno solo: l’intelligenza artificiale non è solo una questione di calcolo. È una questione di strategia industriale. E la Cina ha appena giocato la sua carta più furba.