Quando Alibaba annuncia un “leading open-source deep research agent” e lo mette in produzione dentro Amap e Tongyi FaRui, non sta semplicemente rilasciando un’altra feature carina. Sta gridando al mondo: possiamo fare quello che fa OpenAI, ma con meno parametri, meno costi e più efficienza. È la solita partita del soft power digitale, solo che stavolta la posta in gioco non è l’e-commerce o il cloud, ma la capacità di costruire sistemi cognitivi scalabili che ridefiniscono la ricerca e la conoscenza.

La narrativa è accattivante: un agente di deep research con 30 miliardi di parametri che, secondo benchmark pubblicati dagli stessi ingegneri cinesi, supera il famigerato Humanity’s Last Exam rispetto a Deep Research di OpenAI. Giusto un dettaglio: i punteggi sono auto-dichiarati, non ancora validati in test indipendenti. Ma l’effetto annuncio è chiaro. Il messaggio ai mercati è che Pechino può costruire modelli competitivi senza dover replicare la bulimia computazionale americana. È la versione AI del principio taoista del “meno è più”.

Il punto cruciale è il data flywheel. Non è un concetto nuovo, ma Alibaba lo ha applicato con un rigore industriale al synthetic training data. L’idea che i dati generati dall’AI stessa diventino carburante per i cicli successivi ha un sapore quasi darwiniano: l’agente si autoalimenta, si autoaffina, riduce la dipendenza da dati umani e si proietta verso una scalabilità teoricamente infinita. In pratica, un algoritmo che divora la propria coda e cresce all’infinito. Suona geniale, ma anche pericolosamente instabile.

Parallelamente, a Shenzhen, DeepSeek ha fatto un’altra mossa narrativa. Pubblicare su Nature che il training del modello R1 è costato appena 294.000 dollari con 512 GPU H800 significa insinuare un dubbio velenoso nei mercati: forse i colossi americani stanno gonfiando i costi, o peggio, sono tecnologicamente inefficienti. La reazione è stata immediata, con Nvidia che ha visto oscillare la propria capitalizzazione come se la supply chain delle GPU fosse diventata improvvisamente secondaria rispetto all’arte dell’ottimizzazione. DeepSeek ha anche confermato di aver usato le A100 in fase di preparazione, smontando parzialmente la narrativa low-cost. Ma la provocazione resta: se la Cina può allenare modelli da 660 miliardi di parametri a costi ridotti, allora la supremazia computazionale americana vacilla.

Dietro questa partita di annunci e paper c’è la questione strategica del reinforcement learning applicato al reasoning. DeepSeek sostiene che il suo R1-Zero abbia imparato a ragionare senza tracce umane, solo attraverso ricompense iterative. Un’eresia rispetto al dogma della supervised learning economy basata su eserciti di annotatori. Se fosse vero, significherebbe che l’AI cinese sta sperimentando strade pericolosamente vicine all’autonomia cognitiva, riducendo al minimo il ruolo umano. Una traiettoria che spaventa e seduce allo stesso tempo.

Alibaba e DeepSeek stanno giocando su due piani differenti ma convergenti: l’efficienza parametrica e il costo di training. Entrambi mettono pressione su OpenAI, Google DeepMind e Anthropic, costringendoli a giustificare infrastrutture sempre più costose e modelli sempre più mastodontici. Non è un caso che Sam Altman, tra una cena a Windsor Castle e l’altra, stia cercando trilioni di dollari per reinventare la supply chain dei semiconduttori. Gli Stati Uniti temono che la narrativa del “bigger is better” possa collassare sotto il peso delle innovazioni cinesi.

La realtà, però, è meno patinata. Il deep research agent di Alibaba ha ancora limiti strutturali, come il context length fermo a 128.000 token, un collo di bottiglia enorme per la ricerca scientifica complessa o legale. DeepSeek, dal canto suo, non ha spiegato come intende scalare il suo modello in produzione reale, con tutto ciò che comporta in termini di latenza, affidabilità e compliance. Dichiarare un costo basso su Nature è una cosa, mantenere SLA e deployment stabili in un ambiente enterprise è un’altra.

Questa dinamica, però, ci rivela qualcosa di più profondo: non siamo davanti a una semplice corsa agli armamenti digitali, ma a un cambio di paradigma. L’idea stessa che l’intelligenza artificiale debba crescere in parametri e in GPU per essere rilevante è messa in discussione. La Cina sta sperimentando un modello di efficienza radicale che parla direttamente al cuore delle economie emergenti, quelle che non possono permettersi data center da miliardi. È una narrativa geopolitica travestita da ricerca tecnica.

Il punto ironico è che, in mezzo a questa gara di muscoli, gli utenti finali stanno usando l’agente di Alibaba per pianificare vacanze su Amap. Una tecnologia che pretende di superare Humanity’s Last Exam viene piegata alla banale arte di prenotare alberghi e ristoranti. Ma forse è proprio questa la lezione: l’AI diventa mainstream quando scivola dentro la quotidianità, non quando scrive paper su Nature.

La parola chiave è deep research agent, e con essa tutte le sue varianti semantiche come intelligenza artificiale open source, reinforcement learning e synthetic training data. Sono questi i concetti che definiscono il terreno di scontro tra Washington e Pechino, e che determineranno quali aziende riusciranno a tradurre il capitale computazionale in capitale politico.

Se l’AI è davvero il nuovo petrolio, allora Alibaba e DeepSeek stanno suggerendo che si può estrarlo anche con trivelle più piccole e più economiche. Una prospettiva che non piacerà né a OpenAI né a Nvidia, e che probabilmente scatenerà altre manovre a metà tra diplomazia e propaganda. La partita è appena iniziata, e chi pensa che la differenza la facciano solo i parametri rischia di scoprire, con amara ironia, che la prossima supremazia non si misurerà in teraflop, ma in efficienza narrativa.