Sembrava l’astro nascente dell’AI cinese, il modello di ragionamento che avrebbe ridefinito l’ottimizzazione dei parametri, l’efficienza computazionale e magari anche l’orgoglio nazionale sotto embargo tecnologico. E invece DeepSeek-R1, la star di Hangzhou, ha iniziato a perdere colpi. La quota di utilizzo sulla piattaforma Poe è precipitata dal 7% di febbraio al misero 3% ad aprile. Un crollo verticale degno di una startup fintech senza licenza bancaria, e non del presunto miracolo algoritmico made in China.
Per chi non fosse familiare con Poe, si tratta della piattaforma AI di Quora, dove gli utenti possono scambiare messaggi con diversi modelli linguistici. Una vetrina piuttosto trasparente sulle dinamiche di adozione reale, molto più sincera dei comunicati stampa pieni di grafici colorati e acronimi fuffosi. E i numeri parlano chiaro: oggi DeepSeek è solo il terzo modello di ragionamento più usato, dopo Gemini 2.5 Pro di Google e Claude 3.7 Sonnet di Anthropic. Il primo prende il 31,5% delle query, il secondo il 19,1%. DeepSeek-R1? Si ferma al 12,2%. Gli altri modelli della casa, tipo il tanto decantato V3, nemmeno pervenuti nella top five. Spariti come un white paper durante un audit.
La spiegazione ufficiale è l’arrivo di modelli “accessibili” e “convenienti”. Tradotto: alternative americane e open source fanno lo stesso lavoro o meglio e costano meno. Un classico. Il mercato, si sa, non è sentimentale. Ma qui si intravede una faglia più profonda: DeepSeek, al netto delle acrobazie tecniche, sembra aver perso il racconto, l’appeal narrativo che lo aveva reso sexy a gennaio. Ricordate l’euforia globale quando uscì R1? Tutti a parlare di efficienza, di innovazione cinese che sfida le sanzioni sui chip, di Davide contro Golia… E poi? Poi il nulla. Nessuna vera roadmap pubblica, nessuna interazione con la community, solo promesse criptiche e un aggiornamento minore chiamato Prover-V2, focalizzato sulla matematica. Non esattamente quello che si aspetta chi vuole l’AI che cambia il mondo.
Nel frattempo, mentre DeepSeek dorme o gioca a Go con il politburo, un altro nome cinese sta guadagnando terreno: Kling. Sì, Kling, come il suono di una spada laser low cost o il fratello povero dei Klingon. In realtà si tratta dell’AI per la generazione video sviluppata da Kuaishou Technologies, nota app cinese per brevi video social, il TikTok alternativo per chi odia TikTok ma ama l’algoritmo.
Kling 2.0 Master, lanciato ad aprile, sta rapidamente scalando le classifiche: gestisce il 21% delle query video su Poe, secondo solo a Runway, il modello “category-defining” che ancora regna sovrano. Ma se si sommano tutte le versioni di Kling, la quota arriva al 30%. Non male per una piattaforma partita come clone provinciale, oggi brand di riferimento per video AI.
La vera notizia? Kling funziona. E piace. Perché oltre a generare video decenti, lo fa con un’esperienza utente curata, un marketing spavaldo (“il modello video più potente al mondo disponibile per l’uso”, dicono), e una strategia di distribuzione intelligente. Niente promesse iperboliche stile DeepSeek, niente slide da conferenza di Stato. Solo output. Video che girano, modelli che crescono, utenti che ritornano. Il classico growth hacking orientale fatto bene: massimizzare la percezione di valore immediato senza chiedere troppo permesso al futuro.
Nel grande risiko dell’intelligenza artificiale, la Cina sembra quindi più schizofrenica che mai. Da un lato produce gioielli algoritmici come DeepSeek, che però cadono nella trappola dell’autocelebrazione sterile. Dall’altro, realtà pragmatiche come Kuaishou che capiscono che l’unico valore di un’AI oggi è la sua capacità di produrre contenuti immediatamente spendibili. Kling non promette “ragionamento umano generalizzato”, ma video virali. E il mercato ha deciso che oggi, nel mondo post-ChatGPT, virale batte intelligente. Sempre.
Intanto, dall’altra parte del Pacifico, i giganti americani si fregano le mani. Gemini 2.5 Pro e Claude 3.7 non solo dominano Poe, ma si mangiano quote a ogni ciclo. Un cofondatore di Anthropic, con british understatement e un tocco di veleno, ha definito l’hype su DeepSeek “un po’ esagerato”, aggiungendo che la Cina è ancora “sei-otto mesi indietro” rispetto ai frontier labs statunitensi. Sei-otto mesi in AI equivalgono a un’era geologica. È il tempo che serve a OpenAI per cambiare nome a tre modelli e inventarsi un’app per iPad.
Ironia della sorte: DeepSeek era nato per dimostrare che si poteva costruire un LLM di frontiera anche sotto embargo tecnologico. Una risposta all’isolamento imposto dagli Stati Uniti. Ma oggi, se chiedi a un utente Poe quale modello usa per il ragionamento, ti risponde Gemini. Se gli chiedi con cosa crea i video, ti dice Kling. E DeepSeek? “Ah sì, quello cinese che andava forte a gennaio…”
Forse il problema non è tecnico, ma narrativo. DeepSeek ha vinto la battaglia della performance, ma ha perso quella dell’immaginario. Non basta fare meglio, bisogna anche far sognare. Anche l’AI, alla fine, è spettacolo. E se non stai sul palco, sei solo un ingegnere che parla al muro.
E nel mondo della Generative AI, chi parla al muro oggi, domani non parla più.