La rivoluzione silenziosa di Deepseek: come la cina sta riscrivendo le regole dell’intelligenza artificiale globale
Nel panorama congestionato dell’intelligenza artificiale, dove tutti parlano di parametri, GPU e benchmark come fossero preghiere di una religione laica, una notizia apparentemente marginale si è insinuata come un silenzioso terremoto nel cuore dell’élite accademica. A Vienna, alla conferenza ACL, quella che nel mondo dell’AI è considerata la Champions League dei linguisti computazionali, un paper cinese ha vinto il premio per il miglior lavoro. Titolo: “Native Sparse Attention: Hardware-Aligned and Natively Trainable Sparse Attention”. Autore? O meglio, uno dei quindici co-autori: Liang Wenfeng, fondatore della start-up DeepSeek, realtà cinese che sta riscrivendo il manuale di istruzioni della scalabilità nell’intelligenza artificiale.
Nel mondo dorato dei paper accademici, dove spesso si misura il valore di un ricercatore a suon di citazioni e indice H, questo non è un premio da poco. Significa che l’architettura alla base dei modelli di DeepSeek, questa “native sparse attention” hardware-aligned, ha convinto il gotha mondiale del settore che sì, c’è un modo più efficiente, meno costoso, più… cinese, per addestrare i modelli linguistici. Ed è qui che si apre una faglia geopolitica nel cuore stesso dell’AI.
In un’epoca in cui Silicon Valley è troppo occupata a contare i milioni bruciati da start-up che promettono l’immortalità via prompt, la Cina ha scelto la via del silenzio operativo. Oltre metà dei primi autori dei paper accettati ad ACL 2025 provengono dalla Repubblica Popolare, mentre gli Stati Uniti si sono fermati a un modesto 14 per cento. L’anno scorso erano poco sotto il 30 per cento. Qualcuno potrebbe pensare a un’eccezione statistica. Ma chi mastica numeri e codice sa bene che qui non si parla di percentuali, ma di supremazia cognitiva.
È ironico, se non grottescamente poetico, che il motore della nuova efficienza sia un concetto chiamato “attenzione sparsa”. In un’epoca di informazioni iper-connesse e overload cognitivo, la sparse attention è il modo in cui i modelli imparano a “non guardare tutto”, a concentrarsi su ciò che conta, con una parsimonia computazionale che farebbe arrossire anche gli ingegneri della NASA. Per dirla in parole semplici: la native sparse attention riduce i costi di training e inferenza senza compromettere le performance, ottimizzando l’allineamento tra architettura software e vincoli hardware. È un’eleganza ingegneristica che sembra uscita da un laboratorio MIT, e invece arriva da un laboratorio cinese.
Liang Wenfeng, classe 1985, resta un personaggio enigmatico. Niente interviste, niente TED Talk, nessuna ostentazione da “AI messiah”. Non è nemmeno chiaro se si sia presentato fisicamente a Vienna per ricevere il premio. Ma forse non serve. Il suo curriculum parla attraverso le linee di codice e le architetture computazionali. A maggio ha co-firmato un secondo paper che descrive nel dettaglio come DeepSeek sia riuscita a costruire uno dei sistemi AI open-source più potenti al mondo, con una frazione del budget dei giganti americani. Non una narrativa da unicorno, ma una scalata da formica: precisa, chirurgica, implacabile.
Questa narrazione trova ulteriore risonanza nel fatto che tra i quattro best paper premiati da ACL, due portano la firma di team cinesi. Oltre al gruppo DeepSeek, c’è quello guidato da Yang Yaodong dell’Università di Pechino, che ha affrontato il tema della fragilità degli allineamenti nei modelli linguistici. Fragilità che, se vogliamo essere cinici, è la metafora perfetta del momento americano nel campo dell’AI: brillante, innovativo, ma strutturalmente instabile.
Ora, potremmo limitarci a celebrare la vittoria accademica. Ma sarebbe miope. Il vero dato interessante è che DeepSeek, pur avendo tutti i presupposti per diventare un gigante commerciale, non sembra voler correre verso il mercato. Nessuna IPO affrettata, nessuna campagna pubblicitaria virale, nessun pitch a Davos. Secondo quanto riportato a febbraio, l’azienda è concentrata sulla ricerca. Non per filantropia, ma per visione. In un mercato dove tutti cercano capitali, DeepSeek cerca rigore.
Non mancano però le sfide. Secondo dati di PPIO, la penetrazione dei modelli DeepSeek in Cina è passata dal 99 all’80 per cento tra giugno e luglio. Un calo che può sembrare drammatico, ma che riflette più che altro la concorrenza feroce nel mercato interno. In Cina, ogni provincia sembra voler sfornare il proprio grande modello linguistico, un po’ come accadeva con le app nel 2012. Ma attenzione: non è detto che il vincitore sarà il più rumoroso. Spesso, chi vince è chi sa aspettare. O chi sa comprimere meglio l’attenzione.
In questo scenario, la native sparse attention assume un significato simbolico. Non è solo una tecnica di ottimizzazione, ma una metafora della strategia cinese: focalizzarsi su ciò che conta, eliminare il superfluo, costruire fondamenta robuste. Non si tratta di copiare OpenAI, ma di aggirarla. E se il mondo occidentale continua a ragionare in termini di scale-up, la Cina sembra puntare a una silenziosa saturazione del know-how di base. L’AI come infrastruttura, non come spettacolo.
Nel mondo post-GPT, dove ogni azienda vuole il proprio modello, e ogni manager sogna di “ai-zzare” i processi interni, la lezione che arriva da Vienna è sottile ma devastante. L’innovazione non passa sempre per i garage californiani. A volte nasce in silenziosi centri di ricerca dove il nome dell’azienda non è ancora un brand globale, ma dove le idee si muovono più velocemente dei capitali. La Cina non sta solo partecipando alla corsa all’AI. Sta ridisegnando il tracciato. E, a giudicare dai paper, lo sta facendo con una lucidità chirurgica che dovrebbe far tremare più di un CEO occidentale.
Ma non c’è da stupirsi. In fondo, come disse Sun Tzu, “Il vero maestro vince senza combattere”. O, nel nostro caso, senza fare rumore.