La storia fra ByteDance e Anthropic non è un semplice incidente di percorso tra un’app di Singapore e una startup americana. È il nuovo capitolo della Guerra Fredda tecnologica del XXI secolo, una battaglia invisibile dove le armi non sono missili o sanzioni, ma modelli linguistici e dataset proprietari. Quando la cinese ByteDance, madre di TikTok, si è vista disconnettere l’accesso al modello Claude AI da parte della statunitense Anthropic, non è solo caduto un ponte di collaborazione. È collassato un pezzo dell’illusione di globalizzazione digitale che Silicon Valley e Shenzhen avevano faticosamente costruito in due decenni di interdipendenza tecnologica.

Il caso ha un sapore quasi teatrale. Trae, l’app di programmazione sostenuta da ByteDance e con sede a Singapore, aveva scelto di integrare Claude di Anthropic per offrire ai propri utenti un assistente AI capace di comprendere e generare codice con una fluidità quasi umana. Poi, a settembre, Anthropic ha deciso di interrompere l’accesso alle sue API a tutte le entità controllate per oltre il cinquanta per cento da aziende con sede in regioni non supportate, come la Cina. Tradotto in linguaggio geopolitico: se anche sei a Singapore, ma il tuo azionista di riferimento è cinese, sei tagliato fuori.

La reazione di ByteDance è stata prevedibile quanto imbarazzata. Trae ha comunicato su Discord che avrebbe “interrotto l’uso del modello Claude” e garantito agli utenti che la qualità del servizio non ne avrebbe risentito, grazie all’integrazione con modelli di OpenAI, Google e DeepSeek. Dichiarazione coraggiosa, ma tecnicamente difficile da sostenere. Claude, specie nella versione Sonnet 4, è considerato uno dei migliori modelli al mondo per l’assistenza alla scrittura di codice. I programmatori lo amavano per la capacità di interpretare logiche complesse, correggere bug e proporre soluzioni con un tono sorprendentemente “umano”.

Gli utenti, naturalmente, non hanno gradito. Su Reddit e nei forum di sviluppatori, la frustrazione è diventata rabbia. Molti avevano scelto Trae proprio per l’accesso economico a Claude AI, pagando dieci dollari al mese per un servizio che prometteva le prestazioni di un copilota professionale a un prezzo da software freemium. Quando la connessione con Anthropic è saltata, il malcontento è esploso. Le spiegazioni di ByteDance, per quanto diplomatiche, hanno avuto il sapore di un cerotto su una frattura esposta.

Ma dietro la vicenda c’è molto più di un problema di licenze API. Il blocco di Anthropic a ByteDance rappresenta un precedente che riscrive la mappa della cooperazione tecnologica tra Occidente e Cina. Fino a pochi anni fa, i flussi di innovazione attraversavano liberamente l’oceano: i chip di Nvidia alimentavano server a Pechino, i dataset americani addestravano modelli cinesi, i talenti di Shanghai e San Francisco collaboravano su GitHub. Ora tutto questo si sta disintegrando sotto il peso delle nuove restrizioni geopolitiche, alimentate da una paranoia incrociata su sicurezza dei dati e supremazia algoritmica.

Il CEO di Anthropic, Dario Amodei, ha più volte chiesto pubblicamente di rafforzare i controlli sulle esportazioni di semiconduttori verso la Cina, con un linguaggio che mescola la prudenza del ricercatore con il fervore del patriota. Dietro la retorica della sicurezza nazionale si nasconde però un dato economico: il controllo degli algoritmi di generazione linguistica è il nuovo petrolio digitale. Chi detiene i migliori modelli AI non solo scrive il futuro della produttività, ma definisce anche i limiti del pensiero automatizzato che guiderà miliardi di interazioni quotidiane.

Nel frattempo, ByteDance si ritrova nel ruolo scomodo del gigante senza patria. Formalmente, è un’azienda privata con presenza globale, ma agli occhi di Washington resta una creatura di Pechino. Ogni sua piattaforma, da TikTok a Trae, è sospettata di essere un cavallo di Troia per il Partito Comunista Cinese, anche quando opera in mercati regolamentati come Singapore o Londra. Il paradosso è che ByteDance è probabilmente più trasparente di molte big tech americane sul piano della governance interna, ma paga la colpa originale di essere nata nel posto sbagliato.

Anthropic, dal canto suo, ha giocato una carta coerente con la linea americana di “decoupling tecnologico”. La decisione di chiudere l’accesso ai modelli Claude non è solo un atto di compliance geopolitica, ma anche un segnale simbolico al mercato: la nuova AI americana non è per tutti. È un club ristretto, dove l’appartenenza si misura in quote azionarie e alleanze strategiche. Il risultato? Un internet frammentato in blocchi di competenza linguistica, dove le intelligenze artificiali parlano idiomi diversi e riconoscono confini che un tempo si pensavano superati.

Ironico che proprio l’intelligenza artificiale, l’ultimo baluardo della globalizzazione dei saperi, stia diventando lo strumento di separazione più potente del pianeta. Gli algoritmi non vedono bandiere, ma chi li addestra sì. E quando la politica entra nel prompt, la tecnologia smette di essere neutrale. L’AI che doveva democratizzare il sapere si trasforma in un’arma di controllo delle informazioni, plasmando chi può accedere alla conoscenza e chi deve accontentarsi delle versioni “ottimizzate per regioni supportate”.

ByteDance, per ora, cerca di sopravvivere nell’interstizio tra due mondi. Sta puntando su modelli locali come DeepSeek per bilanciare la perdita di Claude, mentre rafforza le partnership con player più neutrali del Sud-Est asiatico. Ma la sensazione è che il danno reputazionale sia già stato fatto. Quando un’app come Trae, nata per democratizzare il coding assistito, diventa simbolo di un embargo tecnologico, significa che l’intelligenza artificiale non è più un campo di ricerca, ma un teatro di guerra commerciale.

La questione più inquietante è che questa frammentazione algoritmica rischia di essere permanente. I grandi modelli occidentali, da ChatGPT a Claude, stanno diventando strumenti esclusivi delle economie alleate degli Stati Uniti. Dall’altra parte, la Cina risponde con i propri ecosistemi chiusi come Ernie di Baidu e Tongyi di Alibaba. Il mondo dell’AI, un tempo unitario e interconnesso, si sta biforcando in due sfere digitali che non comunicano più. È il ritorno della cortina di ferro, ma in versione di silicio.

L’interruzione tra ByteDance e Anthropic racconta questo nuovo equilibrio precario con un realismo crudele. Nessuna delle due parti ha torto, ma entrambe perdono qualcosa. Anthropic sacrifica un mercato enorme per coerenza politica, ByteDance perde una componente chiave della propria infrastruttura AI per colpa della sua origine. Gli utenti, nel mezzo, diventano le prime vittime di un mondo digitale che si sta restringendo.

Nel 1990 si diceva che il web avrebbe reso impossibili i confini. Nel 2025, invece, i confini digitali stanno diventando più solidi di quelli fisici. La differenza è che oggi le barriere non le costruiscono i governi, ma i modelli linguistici. E quando un codice decide chi può pensare con quale intelligenza artificiale, la libertà digitale non è più una promessa, ma una concessione condizionata.