Nel sottobosco bollente dell’intelligenza artificiale cinese, qualcosa di inaspettato è emerso: una startup come DeepSeek, lanciata con fanfara come baluardo della sovranità AI cinese, ha dovuto chinare il capo e ammettere che senza una “spintarella” tecnica da parte di Tencent, uno dei vecchi leoni del tech locale, il suo progetto open-source di punta sarebbe rimasto zoppo.
Parliamo di DeepEP, una libreria per la comunicazione inter-chip. Nome da svenimento, lo so, ma il cuore di tutto il gioco AI oggi si gioca lì: nei millisecondi che separano un pacchetto di dati tra una GPU e l’altra. DeepSeek voleva fare gli splendidi con un sistema che prometteva alte prestazioni a basso costo – un sogno cinese che, però, inciampava sulla banale realtà delle latenze e delle inefficienze tra chip. A quel punto, entra Tencent, con una soluzione raffinata dal suo team “network platform”, figlio di anni passati a spremere data center per addestrare il loro modello proprietario, Hunyuan.
Zhao Chenggang, ingegnere AI infrastrutturale di DeepSeek (e probabilmente un uomo con molte notti insonni alle spalle), ha candidamente scritto su GitHub che l’intervento di Tencent ha “aumentato enormemente le prestazioni” e reso DeepEP “più robusto”. Tradotto dal linguaggio ingegneristico: ci avete salvato le chiappe.
Il paradosso? Tutto questo si è svolto sotto la bandiera dell’open source. Cina, patria dell’opacità e del controllo centralizzato, oggi è uno dei campi di battaglia più attivi del mondo per software open source nell’AI. Non per spirito comunitario, intendiamoci, ma per pura necessità: rincorrere l’Occidente (leggi: OpenAI, Meta, Mistral) significa costruire veloce, bene, e soprattutto insieme, mettendo da parte la finta concorrenza per spartirsi know-how come si spartivano gli spaghetti nella mensa di Baidu.
Tencent, nel suo comunicato, l’ha detto chiaro: il contributo che ha passato a DeepSeek nasce dall’esperienza interna con i data center e l’ottimizzazione delle comunicazioni tra GPU – un mestiere che, nel 2025, è come avere il segreto della fusione nucleare. Se vuoi addestrare un LLM a prezzi competitivi e non hai i cluster di Nvidia a disposizione, devi diventare chirurgico nel far parlare le GPU tra loro come se fossero un corpo unico.
Nel frattempo, il panorama AI cinese continua a muoversi come una scacchiera a tempo. DeepSeek ha presentato otto progetti open-source a febbraio, come parte del suo tentativo di posizionarsi come l’anti-OpenAI made in Hangzhou. Ma è stata proprio una rivelazione bomba da Seoul a spezzare l’idillio: la Corea del Sud ha accusato DeepSeek di aver inviato dati a server ByteDance in Cina senza consenso. Imbarazzo? Forse. O forse un’altra conferma che il gioco dell’AI globale è un mix di ingegneria, spionaggio industriale e propaganda digitale.
Intanto Alibaba gioca la sua partita con il Qwen, che ormai domina il mercato open-source a suon di cloni e derivati. Parliamo di oltre 100.000 modelli generati sulla base della famiglia Qwen, che ha surclassato pure i LLaMA di Meta. Dietro c’è una strategia che sembra open ma odora di soft power cinese applicato all’algoritmo. E in questo scenario, l’idea stessa di OpenAI che rilascia un modello open-source “generazione precedente” per non aiutare i cinesi è tanto un gesto di prudenza quanto una tacita ammissione: la Cina si avvicina.
Oggi DeepSeek R1 e Alibaba Qwen 3 sono i due modelli open-source più potenti del mondo, almeno secondo LiveBench, un benchmark ancora poco noto al grande pubblico ma molto seguito da chi vive nel sottobosco dell’AI. Il messaggio che arriva da questo ecosistema è chiaro: l’AI si è spostata dal laboratorio al campo minato geopolitico, e l’open source è il cavallo di Troia perfetto.
In tutto questo, Tencent si prende il ruolo che più le si addice: il kingmaker silenzioso. Non combatte per la visibilità, ma per il controllo delle fondamenta tecniche. Perché chi domina la comunicazione tra chip, oggi, comanda l’intelligenza di domani.