Senza annunci roboanti, senza keynote hollywoodiani, DeepSeek ha aggiornato il suo modello di punta e ha spostato l’asse della competizione un po’ più a est. Hangzhou, per essere precisi. Un milione di token di contesto non è un miglioramento incrementale, è una dichiarazione di intenti.
Portare il contesto da 128 mila a oltre un milione di token significa consentire al modello di tenere insieme codice complesso, documentazione estesa, conversazioni lunghe, dataset articolati. Significa passare da risposte intelligenti a flussi di lavoro cognitivi. In altre parole, avvicinarsi pericolosamente a ciò che molte aziende chiamano già “collaboratore”.
DeepSeek non lo ha annunciato ufficialmente. Nessun post trionfale, nessuna demo pubblica. È stato il chatbot stesso a confermare l’aggiornamento, come se fosse la cosa più normale del mondo. Dal punto di vista strategico è quasi elegante, dal punto di vista geopolitico è inquietante. Perché mentre in Occidente si discute ancora di regolazione preventiva e di watermarking, in Cina si spinge sull’architettura, sulla sostanza, sulla scala.
Un contesto così ampio cambia radicalmente il modo in cui l’intelligenza artificiale viene utilizzata. Non si tratta più solo di rispondere a una domanda, ma di mantenere memoria operativa lungo l’intero ciclo di un progetto. Analisi finanziarie che attraversano trimestri, refactoring di codice che coinvolge interi repository, contratti legali letti e compresi come un tutto coerente. È qui che l’AI smette di essere un gadget e inizia a diventare infrastruttura.
Il dettaglio che molti sottovalutano è l’aggiornamento della knowledge cut off. Spostarla da luglio 2024 a maggio 2025 non è solo una questione di freschezza informativa. È una risposta diretta a una critica ricorrente rivolta ai modelli cinesi, spesso accusati di essere tecnicamente solidi ma informativamente arretrati. Quasi un anno di conoscenza in più significa maggiore affidabilità su temi finanziari, tecnologici, normativi. Significa competere sul terreno dove fino a poco tempo fa OpenAI e Anthropic giocavano da soli.
Nello stesso giorno, come in una coreografia ben studiata, Zhipu AI ha presentato il suo nuovo modello GLM-5. Migliori capacità di coding, più parametri, più autonomia operativa. Ma soprattutto l’adozione della DeepSeek Sparse Attention, una tecnica sviluppata proprio da DeepSeek per bilanciare prestazioni ed efficienza. Questo è il punto che dovrebbe far drizzare le antenne a chi guarda ancora alla Cina come a un semplice “fast follower”.
Quando un’azienda adotta l’innovazione architetturale di un’altra, e lo fa apertamente, non siamo più in una fase di imitazione. Siamo dentro un ecosistema. Un ecosistema che innova, condivide, compete e accelera. Le “sei piccole dragonesse” di Hangzhou, come vengono chiamate ormai con una punta di orgoglio nazionale, stanno costruendo qualcosa che somiglia sempre meno a una periferia tecnologica e sempre più a un polo autonomo.
Il mercato lo ha capito prima di molti analisti occidentali. L’entusiasmo globale per i progressi dell’AI cinese ha spinto il titolo di Zhipu AI a crescere di oltre il 40 per cento in cinque giorni. Non è solo speculazione, è una scommessa su una traiettoria. Investitori e aziende iniziano a intuire che la prossima generazione di modelli fondamentali non parlerà necessariamente inglese con accento californiano.
DeepSeek non ha risposto alle richieste di commento. Anche questo è un segnale. Non c’è bisogno di rassicurare, spiegare, giustificare. L’aggiornamento parla da solo. E alimenta inevitabilmente le aspettative sul prossimo grande rilascio, il famigerato DeepSeek V4. Quando un’azienda aumenta il contesto di un ordine di grandezza e aggiorna la base di conoscenza senza clamore, è lecito aspettarsi che stia preparando qualcosa di più strutturale.