Nell’economia digitale contemporanea ogni rivoluzione tecnologica attraversa sempre tre fasi piuttosto prevedibili: entusiasmo, adozione frenetica e improvvisa scoperta dei problemi di sicurezza. L’intelligenza artificiale non fa eccezione. L’ultimo caso emblematico arriva dalla Cina, dove l’agenzia governativa per la sicurezza informatica National Computer Network Emergency Response Technical Team/Coordination Center of China, conosciuta nel settore come Cncert, ha lanciato un avvertimento pubblico sui rischi legati a OpenClaw, la piattaforma che consente di creare agenti autonomi di intelligenza artificiale e che nelle ultime settimane ha conquistato tanto la Silicon Valley quanto l’ecosistema tecnologico cinese.

La dinamica è interessante perché racconta qualcosa di più profondo del semplice bug di sicurezza. Racconta la velocità con cui il paradigma degli agenti AI sta trasformando il modo in cui il software viene concepito, distribuito e soprattutto esposto ai rischi. Negli ultimi mesi OpenClaw è diventato virale tra startup, sviluppatori e aziende che cercano di costruire sistemi capaci di agire autonomamente: leggere email, interagire con database, eseguire processi aziendali e coordinare servizi cloud. In altre parole, la promessa seducente dell’automazione cognitiva totale. Il problema è che quando si concede a un agente software accesso a infrastrutture critiche, si apre anche una porta molto larga per eventuali aggressori.

Il rapporto di Cncert è piuttosto diretto e poco diplomatico. Secondo l’agenzia, la configurazione di sicurezza di OpenClaw presenta vulnerabilità tali da consentire a un attaccante di ottenere il controllo completo del sistema su cui l’agente è installato. Nel linguaggio della cybersecurity, si tratta di uno scenario da manuale di “privilege escalation”, in cui un software progettato per semplificare operazioni automatizzate diventa improvvisamente il cavallo di Troia perfetto. Il rischio aumenta quando gli agenti sono collegati a sistemi aziendali sensibili o infrastrutture cloud.

Non sorprende che il governo cinese abbia scelto di intervenire pubblicamente. La Cina ha una lunga tradizione di gestione centralizzata delle tecnologie strategiche, soprattutto quando queste riguardano dati, infrastrutture e algoritmi. In settori come la finanza o l’energia, che Pechino considera infrastrutture critiche nazionali, un agente AI con accesso incontrollato potrebbe teoricamente esporre dati aziendali, segreti industriali o codice sorgente. In un contesto geopolitico in cui la competizione tecnologica è diventata un capitolo della sicurezza nazionale, questo tipo di vulnerabilità non viene interpretato come un semplice problema tecnico.

Il paradosso, tuttavia, è che la Cina non è affatto ostile alla diffusione degli agenti AI. Anzi. Negli ultimi mesi l’ecosistema tecnologico cinese ha mostrato un entusiasmo quasi febbrile verso questa nuova architettura software. Giganti del digitale come Alibaba Group, Tencent e ByteDance hanno già iniziato a integrare servizi basati su OpenClaw nelle loro piattaforme cloud, offrendo strumenti per sviluppatori e aziende interessate a costruire agenti autonomi.

Questa adozione massiva racconta una verità che spesso sfugge nelle narrazioni occidentali sulla competizione tecnologica tra Stati Uniti e Cina. Mentre in Silicon Valley si discute quasi ossessivamente di AGI e superintelligenza, gran parte del mondo tecnologico asiatico è concentrato su un obiettivo molto più pragmatico: trasformare l’AI in infrastruttura operativa. Non filosofia del futuro, ma automazione concreta dei processi aziendali.

Gli agenti AI rappresentano precisamente questo passaggio. Non si tratta più di modelli che rispondono a domande, ma di sistemi che eseguono azioni. Il salto concettuale è enorme. Un chatbot è un sistema relativamente isolato; un agente, invece, interagisce con API, database, applicazioni aziendali e infrastrutture cloud. In termini architetturali significa passare da un software consultivo a un software operativo.

Il problema è che la sicurezza informatica non è ancora completamente preparata a questa transizione. Molti sistemi di protezione sono stati progettati per un mondo in cui il software esegue istruzioni determinate da esseri umani. Gli agenti AI introducono un elemento di autonomia che rende più difficile prevedere comportamenti e vulnerabilità. Un agente che ha accesso a repository di codice, sistemi ERP e database finanziari diventa inevitabilmente una superficie di attacco molto più ampia.

Storicamente, ogni grande innovazione informatica ha attraversato una fase simile. Negli anni Novanta l’esplosione del web ha generato una proliferazione di vulnerabilità perché le aziende correvano a mettere online servizi senza comprenderne i rischi. Nei primi anni Duemila la diffusione del cloud computing ha creato un nuovo ciclo di problemi legati alla gestione delle identità e degli accessi. Oggi gli agenti AI sembrano destinati a ripetere lo stesso copione.

OpenClaw si inserisce esattamente in questo momento storico. La piattaforma permette agli sviluppatori di costruire rapidamente agenti intelligenti collegati a diversi strumenti digitali. L’idea è semplice e geniale: invece di programmare manualmente ogni automazione, si definiscono obiettivi e il sistema orchestra le azioni necessarie per raggiungerli. In teoria significa moltiplicare la produttività del software. In pratica significa anche moltiplicare i punti di vulnerabilità.

Il consiglio di Cncert è pragmatico e ricorda alcune lezioni fondamentali della sicurezza informatica. Limitare l’accesso degli agenti ai sistemi aziendali, rafforzare i meccanismi di autenticazione e controllare attentamente i plug-in software utilizzati. Nulla di rivoluzionario. In realtà sono principi che qualsiasi CISO dovrebbe conoscere da vent’anni. Il fatto che debbano essere ribaditi nel contesto degli agenti AI dimostra quanto velocemente le aziende stiano adottando queste tecnologie senza sempre comprenderne le implicazioni.

La velocità dell’adozione è un fenomeno affascinante. Silicon Valley ha scoperto OpenClaw a fine gennaio e nel giro di poche settimane l’intero ecosistema globale dell’AI ha iniziato a sperimentarlo. Startup, sviluppatori indipendenti e grandi aziende hanno iniziato a costruire agenti per ogni possibile applicazione. Alcuni casi d’uso sono genuinamente interessanti, altri sembrano il classico esercizio di hype tecnologico che accompagna ogni nuova piattaforma.

La storia dell’informatica è piena di questi momenti di entusiasmo collettivo. Nel 2017 bastava inserire la parola “blockchain” in un pitch deck per raccogliere milioni di dollari. Nel 2021 la stessa dinamica si è ripetuta con il metaverso. Oggi la parola magica è “agent”. Gli investitori amano l’idea di software che lavora autonomamente, perché promette una riduzione radicale dei costi operativi. Gli sviluppatori amano l’idea di costruire sistemi complessi con meno codice. I dirigenti aziendali amano l’idea di automatizzare processi che prima richiedevano interi dipartimenti.

Il rischio è che l’entusiasmo superi la prudenza. Quando un agente AI ha accesso a email aziendali, database finanziari e sistemi di produzione, il confine tra automazione efficiente e vulnerabilità sistemica diventa molto sottile. Gli attaccanti informatici sono notoriamente opportunisti. Se una piattaforma diffusa globalmente presenta configurazioni di sicurezza fragili, è quasi certo che qualcuno cercherà di sfruttarle.

Dal punto di vista geopolitico, il caso OpenClaw rappresenta anche un microcosmo della competizione tecnologica globale. Stati Uniti e Cina stanno sviluppando ecosistemi AI paralleli ma profondamente interconnessi. Le piattaforme software nate nella Silicon Valley vengono rapidamente adottate da aziende cinesi, mentre le innovazioni cinesi influenzano a loro volta il mercato globale. In questo scenario, una vulnerabilità tecnica può diventare rapidamente un problema internazionale.

Un vecchio adagio della cybersecurity recita che la sicurezza non è un prodotto ma un processo. La frase viene spesso attribuita a Bruce Schneier, uno dei pensatori più influenti nel campo della sicurezza informatica. Applicata agli agenti AI, questa osservazione diventa ancora più pertinente. Non basta costruire piattaforme potenti; bisogna progettare ecosistemi in cui l’autonomia del software non comprometta la sicurezza delle infrastrutture.

La corsa agli agenti AI continuerà probabilmente a ritmo accelerato. Le aziende stanno scoprendo che questi sistemi possono ridurre tempi e costi operativi in modo significativo. L’automazione cognitiva non è più una promessa futuristica ma un fenomeno industriale concreto. Tuttavia ogni nuova infrastruttura digitale porta con sé nuovi rischi. Ignorarli sarebbe un errore strategico.

La vicenda di OpenClaw suggerisce una lezione piuttosto semplice ma spesso ignorata nel mondo tecnologico: quando una tecnologia diventa improvvisamente virale, la sicurezza arriva sempre qualche settimana dopo. Nel frattempo, gli sviluppatori costruiscono, gli investitori finanziano e gli hacker osservano con grande interesse. La storia dell’informatica dimostra che in questo triangolo la sorpresa finale raramente arriva dalla prima categoria.