Gli agenti AI hanno iniziato a comportarsi come aziende operative. Consumano risorse, delegano lavoro, coordinano sub agenti, generano output mentre gli umani dormono. In questo scenario OpenClaw non è un chatbot evoluto, è un direttore generale algoritmico. E come ogni buon direttore generale ha scoperto che il vero vantaggio competitivo non è l’eleganza teorica ma il costo marginale dell’azione.

OpenClaw è stato presentato come “l’AI che fa davvero le cose”, una definizione che sembra marketing ma in realtà è un cambio di paradigma. Un agente che agisce non conversa soltanto, orchestra. Decide quali modelli usare, quali agenti attivare, quando fermarsi. Ed è qui che i modelli open source cinesi entrano in scena non come alternativa ideologica ma come scelta industriale. Moonshot AI con Kimi K2.5 e Kimi Coding, MiniMax e prima ancora DeepSeek hanno capito una cosa semplice: quando l’AI lavora davvero, il costo per token diventa il vero collo di bottiglia.

Molti utenti di OpenClaw hanno raccontato la stessa esperienza. Impostano un task complesso, lasciano l’agente libero di operare, vanno a dormire e al risveglio trovano risultati sorprendenti accompagnati da un consumo di token altrettanto sorprendente. Gli agenti autonomi non ragionano come un prompt singolo, ragionano come un processo continuo. Ogni decisione genera nuove chiamate, ogni verifica produce altro testo, ogni iterazione costa. In questo contesto i modelli occidentali di fascia alta iniziano a sembrare meno strumenti e più status symbol cognitivi.

Kimi K2.5 costa circa 0,58 dollari per milione di token in input e 3 dollari in output. Claude Opus 4.5 viaggia su ordini di grandezza superiori. Non serve una simulazione Monte Carlo per capire l’impatto su un agente che lavora per ore. La scelta di OpenClaw di offrire gratuitamente modelli cinesi non è un atto di generosità né una dichiarazione geopolitica. È ottimizzazione pura. È il classico momento in cui la strategia incontra la contabilità e vince la seconda.

Ma il vero punto interessante emerge quando si guarda a come OpenClaw funziona internamente. Non è un sistema monolitico. È un meta agente, un task router che dialoga con altri agenti specializzati. Quando deve fare ricerca profonda, attiva agenti esplorativi simili ad AutoGPT o BabyAGI. Quando deve scrivere o modificare codice, delega a agenti tipo OpenDevin o SWE Agent. Quando deve produrre documenti complessi, attiva flussi multi agente costruiti su framework come LangGraph o CrewAI. OpenClaw non compete con questi agenti, li coordina. È management algoritmico.

In questo ecosistema il modello linguistico non è il cervello unico, è il carburante. E quando il carburante è troppo costoso, l’azienda rallenta o fallisce. I modelli open source cinesi hanno trovato il loro spazio esattamente qui, nella fascia operativa. Non promettono l’illuminazione artificiale, promettono ore di lavoro cognitivo a prezzo accessibile. Per un agente che deve orchestrare decine di sub agenti, è una differenza strutturale.

C’è poi un altro livello, spesso ignorato, che rende questa dinamica ancora più interessante. Ogni integrazione di OpenClaw con servizi esterni aumenta il valore dei modelli low cost. Quando un agente è connesso a Google Workspace, Microsoft 365, GitHub, Jira o CRM aziendali, ogni azione diventa una catena di ragionamento. In Cina questo si traduce già in integrazioni profonde con DingTalk e WeCom, trasformando OpenClaw in una sorta di impiegato digitale che vive dentro l’infrastruttura delle grandi piattaforme cloud. Alibaba Cloud e Tencent Cloud non stanno abbracciando OpenClaw per moda, lo fanno perché ogni task eseguito è consumo di cloud, traffico, lock in infrastrutturale.

La questione della privacy emerge inevitabilmente quando un agente inizia a “fare cose” al posto tuo. Alcuni utenti preferiscono usarlo in cloud per evitare accessi locali. Altri adottano un approccio più darwiniano, convinti che la disciplina dell’utente conti più della promessa del fornitore. In ogni caso il dibattito è reale ma secondario rispetto al fenomeno principale. Quando un agente diventa un collaboratore virtuale, come lo definiscono alcuni utenti, viene valutato come un dipendente. Produce abbastanza valore rispetto al costo e al rischio? Se la risposta è sì, viene adottato.

Ed è qui che la Cina sta giocando una partita sottile ma efficace. L’open source non viene usato come bandiera ideologica ma come leva di penetrazione. Più modelli open source vengono integrati in agenti globali, più diventano standard de facto. Più vengono usati, più raccolgono feedback reali. Non benchmark accademici, ma log di utilizzo notturno, errori in produzione, comportamenti emergenti. È una palestra evolutiva che nessun laboratorio isolato può replicare.

L’ironia è che mentre il dibattito pubblico continua a interrogarsi su quando arriverà l’AGI, il mercato ha già fatto una scelta molto più concreta. Sta premiando l’intelligenza artificiale che lavora, non quella che impressiona. Sta premiando il modello che permette a un agente di restare acceso tutta la notte senza far esplodere il budget. Sta premiando l’efficienza cognitiva, non la retorica.

OpenClaw, in questo senso, è un sintomo prima ancora che un protagonista. Dimostra che gli agenti AI stanno diventando strutture organizzative autonome. Dimostra che l’orchestrazione conta più del singolo modello. Dimostra che il vero potere non è nel cervello più brillante, ma nella capacità di far lavorare molti cervelli abbastanza buoni a costi sostenibili. In questo schema i modelli open source cinesi non sono outsider, sono il reparto operativo.

Guardando avanti, la traiettoria appare difficile da invertire. Più gli agenti diventano complessi, più il costo per token diventa centrale. Più il costo diventa centrale, più i modelli low cost ad alte prestazioni guadagnano terreno. Non è una rivoluzione spettacolare, è una colonizzazione silenziosa. E come spesso accade nella tecnologia, chi vince non è chi fa più rumore, ma chi riesce a lavorare di più mentre gli altri discutono.