La notizia è arrivata in sordina, con una frase criptica su WeChat. DeepSeek, la start-up di intelligenza artificiale con base a Hangzhou, ha annunciato che il suo nuovo modello V3.1 è stato addestrato usando il formato dati UE8M0 FP8, “pensato per i chip domestici di prossima uscita”. Bastano nove parole a scatenare la speculazione di mezzo settore tecnologico, perché in quelle nove parole si intravede la possibilità che la Cina abbia trovato la chiave per ridurre la dipendenza dai chip americani, in particolare dalle GPU Nvidia, che oggi dominano il mercato globale dell’AI.

Il dettaglio tecnico non è banale, anzi. FP8 significa floating-point 8, un formato a precisione ridotta che consente di accelerare il training e l’inferencing dei modelli di intelligenza artificiale, con un consumo molto più basso di memoria e banda. Nvidia lo aveva già dimostrato sui suoi forum, lodando l’efficienza del formato capace di dimezzare l’uso della VRAM senza impattare i risultati. Ma DeepSeek ha introdotto una variazione ingegneristica chiamata UE8M0, che promette un ulteriore taglio del fabbisogno di potenza di calcolo, storage e larghezza di banda. Tradotto: modelli di AI avanzati possono essere addestrati e fatti girare su chip meno potenti, potenzialmente i chip cinesi che faticano ancora a reggere il confronto con le GPU americane.