La Cina, che negli ultimi due anni aveva costruito una reputazione quasi romantica di paladina dell’AI aperta, sta lentamente ma decisamente correggendo la rotta. Non è un ripensamento filosofico. È una decisione economica. E come spesso accade nel capitalismo tecnologico, quando il codice incontra il fatturato, la trasparenza perde.

Il caso di Alibaba Cloud è emblematico, quasi didattico. Dopo aver inondato il mercato globale con varianti open dei modelli Qwen, l’azienda ha deciso che i suoi modelli più avanzati, come Qwen3.6-Plus e Qwen3.5-Omni, resteranno confinati dietro API e infrastrutture proprietarie. Tradotto: puoi usarli, ma alle nostre condizioni, nel nostro ecosistema, pagando il pedaggio. È la stessa logica che ha trasformato il cloud computing da promessa decentralizzata a macchina perfetta per l’estrazione di rendita.

La giustificazione ufficiale è quasi ingenua nella sua onestà. I modelli più piccoli, quelli open, servono a creare ecosistema, attrarre sviluppatori, generare varianti e sperimentazione. I modelli più potenti, invece, sono asset strategici. Troppo costosi da addestrare, troppo complessi da gestire, troppo preziosi per essere regalati. Una distinzione che ricorda da vicino quella tra software freemium e piattaforme enterprise, con la differenza che qui il costo marginale non è la distribuzione, ma l’inferenza computazionale.

Il paradosso è evidente. Più un modello diventa potente, meno è “democratico”. Non per ideologia, ma per fisica. I modelli con centinaia di miliardi o trilioni di parametri richiedono infrastrutture che nessun laptop, nessuna PMI, e realisticamente nessuna startup può sostenere. L’open source, in questo contesto, diventa una simulazione di apertura. Una sandbox controllata. Un’anteprima gratuita di un prodotto che, nella sua forma più pura, resta inaccessibile.

Qui entra in gioco una dinamica che molti osservatori occidentali hanno sottovalutato. La Cina non ha mai creduto davvero nell’open source come valore etico. Lo ha utilizzato come leva strategica. Una forma di soft power tecnologico. Distribuire modelli open significava colonizzare l’ecosistema globale degli sviluppatori, costruire dipendenza, raccogliere feedback distribuito, accelerare iterazione. Un approccio quasi darwiniano: lasciare che migliaia di varianti emergano, osservare quali sopravvivono, e poi reintegrare le innovazioni nel core proprietario.

Il successo della serie Qwen su piattaforme come Hugging Face, con un numero di modelli derivati superiore persino a quelli di Google e Meta, non è stato un incidente. È stato un esperimento di mercato su scala planetaria. E ora che il mercato è stato sondato, segmentato e in parte conquistato, la monetizzazione diventa inevitabile. In altre parole, l’open source è stato il cavallo di Troia. Il cloud è la cittadella.

La scelta di non open-sourciare modelli multimodali avanzati come Qwen3.5-Omni è particolarmente significativa. I modelli multimodali rappresentano il vero salto di paradigma dell’AI contemporanea. Non si limitano a comprendere testo, ma integrano immagini, audio, video, contesto temporale. Sono, in sostanza, sistemi cognitivi embrionali. E come ogni tecnologia ad alto potenziale dual-use, portano con sé rischi non trascurabili. Dalla generazione di contenuti NSFW alla disinformazione automatizzata, fino a scenari più sofisticati di manipolazione mediatica.

Le critiche ricevute dai modelli video Wan, accusati di facilitare la diffusione di contenuti illeciti, hanno fornito una giustificazione perfetta per chiudere ulteriormente l’accesso. Sicurezza e controllo diventano argomenti convincenti quando coincidono con interessi economici. È un copione già visto. La crittografia, i social network, persino l’App Store di Apple hanno attraversato fasi simili. L’apertura iniziale seguita da un progressivo irrigidimento.

Nel frattempo, aziende come Zhipu AI stanno affinando una strategia ancora più esplicita. Continuare a rilasciare modelli open, ma solo quanto basta per mantenere visibilità e credibilità. Il vero business si sposta sulle API cloud, dove ogni chiamata diventa una micro-transazione. Il CEO Zhang Peng lo ha detto senza troppi giri di parole: i clienti stanno migrando spontaneamente verso il cloud. Non perché sia più etico o più aperto, ma perché è più semplice, più scalabile, più integrato.

È la vittoria dell’attrito minimo. Gli sviluppatori, storicamente allergici ai vincoli, stanno accettando ecosistemi chiusi in cambio di velocità e affidabilità. Una trasformazione culturale sottile ma profonda. Negli anni Novanta si compilava codice per libertà. Oggi si chiamano API per efficienza. Il romanticismo dell’open source si scontra con la brutalità del time-to-market.

Sul piano geopolitico, questa evoluzione racconta qualcosa di ancora più interessante. L’AI non è più una competizione tra modelli. È una competizione tra infrastrutture. Chi controlla i data center, le GPU, le reti di distribuzione, controlla l’accesso all’intelligenza. In questo senso, la decisione di chiudere i modelli più avanzati non è una ritirata, ma una fortificazione. Una mossa difensiva in un contesto sempre più competitivo, dove Stati Uniti e Cina stanno costruendo ecosistemi tecnologici paralleli, sempre meno interoperabili.

La narrativa occidentale tende a interpretare l’open source come sinonimo di innovazione e libertà. Ma nel contesto dell’AI contemporanea, questa equazione è sempre meno valida. L’innovazione richiede capitale, energia, hardware. Tre elementi che si concentrano naturalmente in poche mani. L’open source, senza accesso a queste risorse, rischia di diventare un esercizio accademico. Interessante, ma marginale.

Una frase che circola nei corridoi della Silicon Valley, attribuita con una certa ironia a vari CTO, sintetizza bene la situazione: “Open source is great, until it becomes expensive.” È una battuta, ma come tutte le battute efficaci, contiene una verità scomoda. L’AI di frontiera è costosa. E ciò che è costoso tende a essere controllato.

Il caso di aziende come ByteDance o Xiaomi, che mantengono i loro modelli più avanzati completamente chiusi, rafforza questa tendenza. L’open source diventa una strategia di marketing, non un modello operativo. Una porta d’ingresso, non una casa. E una volta che l’utente è dentro, l’ecosistema fa il resto. Lock-in, integrazione verticale, ottimizzazione continua.

Nel frattempo, prodotti come Kling AI dimostrano che il modello funziona. Con ricavi significativi e in crescita, basati su modelli chiusi, queste piattaforme stanno costruendo business sostenibili in tempi sorprendentemente brevi. Non è un dettaglio. È un segnale. Il mercato sta premiando chi riesce a trasformare l’intelligenza artificiale da curiosità tecnologica a servizio monetizzabile.

La domanda, a questo punto, non è se l’open source sopravviverà. Sopravviverà, come sopravvivono tutte le idee utili ma non dominanti. La vera domanda è quale ruolo giocherà. Probabilmente quello di laboratorio distribuito, di terreno di sperimentazione, di incubatore di talenti. Ma il cuore economico dell’AI, quello dove si generano i margini, resterà sempre più chiuso.

Una dinamica che, a ben vedere, non è nuova. Il web era nato come spazio aperto. Oggi è dominato da piattaforme. Il software era distribuito. Oggi è SaaS. L’AI non fa eccezione. Cambiano le tecnologie, ma le logiche di concentrazione restano sorprendentemente costanti.

Resta infine un elemento quasi filosofico, che merita attenzione. L’idea che l’intelligenza, artificiale o meno, possa essere “open” è sempre stata, in fondo, una metafora. L’intelligenza è potere. E il potere, storicamente, non si distribuisce senza condizioni. La Cina lo ha capito rapidamente. L’Occidente sta fingendo di non accorgersene.

Nel frattempo, gli sviluppatori continuano a scaricare modelli open, a sperimentare, a costruire. Un ecosistema vibrante, creativo, apparentemente libero. Ma sopra di esso, come una nuova forma di infrastruttura invisibile, si sta consolidando un livello superiore, fatto di API, cloud e modelli chiusi. È lì che si giocherà la partita vera. Ed è lì che, inevitabilmente, si concentrerà il valore.

La storia dell’AI, almeno per ora, non è quella di una democratizzazione dell’intelligenza. È quella di una sua raffinata redistribuzione. Con un dettaglio non trascurabile: chi controlla i modelli più grandi, controlla anche le regole del gioco. E raramente le cambia a proprio svantaggio.