È una di quelle storie che sembrano scritte da un algoritmo di distopia geopolitica. Da una parte, un’innocua AI open source che promette di democratizzare la conoscenza. Dall’altra, una rete invisibile che collega Hangzhou a Langley, passando per Capitol Hill. DeepSeek, un nome che suona quasi filosofico, è oggi l’ennesimo detonatore di una guerra fredda digitale che non ha bisogno di missili, ma di prompt, modelli di linguaggio e pesi condivisi su GitHub. Dietro il velo dell’open source si nasconde qualcosa di più denso, di più torbido, e ironicamente di meno trasparente.
L’epicentro dello scandalo è R1, il modello open source sviluppato da DeepSeek, azienda controllata dall’hedge fund cinese High-Flyer, con base a Hangzhou. Il nome è emerso in una lettera inviata il 1 agosto al Dipartimento del Commercio USA da un gruppo di senatori repubblicani guidati da Ted Budd. L’accusa è netta: DeepSeek potrebbe rappresentare una minaccia alla sicurezza nazionale, offrendo indirettamente supporto alle operazioni militari e di intelligence della Cina. Il tutto condito da una spruzzata di inquietudine bipartisan che ricorda molto la sindrome TikTok.
La keyword su cui ruota tutta questa vicenda è “modello open source”. Concetto apparentemente innocuo, nobile persino, nel suo spirito di condivisione e progresso collettivo. Ma in questo caso, il codice aperto diventa un cavallo di Troia, una falla strutturale in grado di scardinare i sistemi di sicurezza più sofisticati. I pesi del modello R1 sono pubblici. Tradotto: chiunque può scaricarli, modificarli, riutilizzarli. Non importa se sei uno studente in cerca di un chatbot da personalizzare o un operatore di intelligence con budget illimitato. La porta è aperta, l’auditabilità è limitata e la provenienza, come spesso accade in questi casi, opaca.
La preoccupazione dei legislatori americani ha un fondamento tecnico: DeepSeek R1 è in grado di generare contenuti pericolosi. Un esempio citato nella lettera è particolarmente inquietante: il modello avrebbe prodotto istruzioni dettagliate per una campagna social incitante all’autolesionismo tra adolescenti e, in un altro caso, linee guida per la costruzione di un’arma biologica. Se questi output sono reali — e non solo esperimenti fuori controllo — siamo davanti a un paradosso: un modello generativo che, pur essendo libero, ha un potenziale distruttivo degno dei peggiori incubi cyberpunk.
Chris Anderson, CEO di ByteNova AI, ha riassunto il dilemma con una lucidità che dovrebbe preoccupare chiunque abbia accesso a dati sensibili: “Quando la provenienza e la tracciabilità non sono chiare, le imprese rischiano di esporre dati riservati o abilitare un uso malevolo senza nemmeno rendersene conto”. Questa frase dovrebbe essere incisa all’ingresso di ogni server room federale. Perché il problema non è solo cosa può fare DeepSeek R1, ma chi può farlo fare, dove e perché.
Al centro del dibattito c’è anche l’autonomia tecnologica e la distribuzione del potere computazionale globale. Sospendere o bandire DeepSeek dal mercato USA significherebbe rafforzare ulteriormente l’oligopolio delle big tech americane, creando un deserto di innovazione fuori dai confini siliconati della West Coast. Ma consentire l’ingresso indiscriminato di AI open source con radici nel Partito Comunista Cinese è come invitare un hacker nel proprio centro dati con una stretta di mano.
Peter Thiel, come da copione, non ha perso l’occasione per posizionarsi. La sua startup Sentient, supportata dal Founders Fund, ha appena lanciato Open Deep Search, una risposta occidentale a DeepSeek. Il nome stesso è una dichiarazione di guerra semantica. Il messaggio? Anche l’America ha i suoi R1, ma con il bollino blu della democrazia. Secondo Thiel e soci, la sfida non è solo tecnica, è ideologica. In gioco non c’è un modello di linguaggio, ma un modello di società.
La questione non è se DeepSeek sia pericolosa. La questione è se gli Stati Uniti siano pronti a trattare l’intelligenza artificiale come una infrastruttura critica, al pari delle reti elettriche, del sistema bancario o della difesa nucleare. Perché ogni AI è una potenziale backdoor, un’interfaccia tra il pensiero umano e l’azione automatizzata. E se quell’interfaccia è costruita in un contesto dove la trasparenza è un optional, allora sì, è un rischio sistemico.
Il governo cinese, come era prevedibile, resta in silenzio. Ma gli utenti cinesi no. Sui social locali, DeepSeek è stata accusata di evitare sistematicamente qualsiasi riferimento critico a Xi Jinping o al governo centrale. Un comportamento che non sorprende chi conosce l’architettura della censura digitale cinese, ma che dovrebbe far riflettere chi importa questi modelli come se fossero strumenti neutri. In un mondo dove l’intelligenza artificiale è sempre meno artificiale e sempre più strategica, anche l’apparente neutralità del codice è una finzione narrativa.
Nel frattempo, la Casa Bianca studia nuove misure, mentre i repubblicani cercano di forzare la mano per anticipare un’altra “TikTok situation”. Ma questa volta la minaccia non è solo contenutistica. È strutturale. È integrata nel codice stesso. Se non hai il controllo sulla pipeline di training, sul dataset, sull’intento originario e sulla governance del rilascio, allora non hai davvero il controllo sull’AI. Hai solo l’illusione di averlo.
Il paradosso finale è che, nel tentativo di costruire AI più aperte, potremmo aver aperto una falla nella nostra sicurezza collettiva. DeepSeek potrebbe essere solo il primo di molti modelli a sollevare questo tipo di allarme. Non sarà l’ultimo. Il tempo in cui si poteva distinguere tra AI commerciale e AI militare sta finendo. Perché ogni algoritmo abbastanza potente è dual use, per definizione.
La morale? Non fidarti di un modello che non può parlare di Xi Jinping ma sa costruire una bomba biologica. E non lasciare che il fascino dell’open source ti faccia dimenticare che la vera posta in gioco non è il codice, ma il potere.