Sembra una scena uscita da una distopia ben scritta, e invece arriva da un articolo pubblicato sul Washington Post da Jack Crovitz, deployment strategist di Palantir Technologies. Un agente della sicurezza interna cinese chiede a un modello di intelligenza artificiale di progettare un sistema avanzato di sorveglianza per monitorare la popolazione uigura. Un apparato sofisticato, fatto di dati di polizia, trasporti in tempo reale e incroci algoritmici degni di una serie Netflix. Il nome del progetto è quasi poetico nella sua freddezza: Warning Model for High-Risk Uyghur Individuals. Ora arriva il colpo di scena. Il modello non è cinese. Non è DeepSeek, né Zhipu, né Moonshot. È ChatGPT. Silicon Valley, non Shenzhen.
Attenzione: qui il punto non è l’incidente in sé. OpenAI ha bloccato l’utente, come previsto. Il punto è quello che l’episodio rivela, e cioè un gigantesco equivoco strategico che accompagna la corsa globale all’intelligenza artificiale. Pensiamo di vincere la gara costruendo il modello più potente. Ma la vera partita si gioca su chi controlla davvero l’uso di quella potenza.
Negli ultimi mesi, come ricorda Crovitz, OpenAI e Anthropic hanno scoperto che operatori legati allo Stato cinese utilizzavano modelli americani per scrivere articoli in spagnolo contro gli Stati Uniti, violare sistemi governativi vietnamiti, monitorare social network occidentali e persino condurre attacchi informatici riusciti contro banche e agenzie pubbliche. Non esperimenti. Operazioni reali, con danni concreti.
Qui l’ironia diventa amara. Gli Stati Uniti investono centinaia di miliardi per costruire l’AI più avanzata del pianeta, e poi quella stessa AI viene usata per minare la sicurezza occidentale, la libertà di informazione e persino i diritti umani. È come finanziare il progetto Manhattan e scoprire che qualcun altro ha le chiavi del laboratorio.
Il nodo centrale, che Crovitz mette a fuoco con precisione chirurgica, è che la competizione tra Stati Uniti e Cina sull’AI non riguarda solo le capacità. Riguarda il controllo. Un modello straordinariamente avanzato, se accessibile senza adeguate barriere, diventa un moltiplicatore di potere per chiunque lo sappia usare. Inclusi regimi autoritari e attori ostili.
Anzi, più il modello è avanzato, più il rischio cresce. È il paradosso dell’AI di frontiera: ogni salto tecnologico rende il sistema più utile per il progresso umano, ma anche più appetibile come arma digitale. Se questo sembra un problema teorico, basta guardare ai report interni citati dallo stesso Crovitz. Secondo valutazioni commissionate dal Dipartimento di Stato, molte AI lab americane non sarebbero oggi in grado di resistere a una campagna ben strutturata di esfiltrazione da parte di uno team tecnologicamente avanzato. Traduzione: se Cina o Russia decidessero davvero di rubare i modelli, probabilmente potrebbero farlo.
E qui entra in gioco la politica. Se, come ha dichiarato Donald Trump, la leadership americana nell’AI è una questione di sicurezza nazionale, allora non può essere lasciata alla buona volontà delle aziende. Alcune, come OpenAI e Anthropic, già applicano regole severe e segnalano gli abusi. Ma l’autoregolamentazione, da sola, non basta in una corsa agli armamenti tecnologica.
La proposta è sorprendentemente sobria. Niente blocchi ideologici, niente crociate contro l’innovazione. Servono standard minimi di sicurezza obbligatori per i laboratori di AI di frontiera, a partire da un principio semplice e molto americano: se succede qualcosa di grave, lo devi dire. Il reporting obbligatorio degli incidenti, sul modello di quanto già avviene nella difesa e nelle infrastrutture critiche, permetterebbe allo Stato di capire quanto il problema sia serio e dove intervenire.
Il resto è una conseguenza logica. Rafforzare la sicurezza dei modelli, proteggere i pesi, controllare l’accesso del personale, coordinarsi con i Paesi alleati. Non per rallentare l’AI, ma per evitare che diventi un boomerang geopolitico.
C’è una frase che resta addosso leggendo le riflessioni di Crovitz. Sarebbe una tragedia investire somme colossali per costruire la tecnologia più potente della storia umana e poi consegnarla, di fatto, a chi vuole usarla contro di noi. L’AI non è solo una questione di ingegneria. È una questione di governance, di sicurezza e, in ultima analisi, di responsabilità storica.
La conversazione sull’intelligenza artificiale tende a oscillare tra entusiasmo e paura. Forse è il momento di aggiungere una terza parola, meno affascinante ma decisiva: custodia. Perché non vince chi corre più veloce, ma chi riesce a portare con sé ciò che ha costruito senza perderne il controllo lungo la strada.