Quando due aziende che predicano la collaborazione per la salvezza dell’umanità iniziano a chiudersi l’accesso alle API, qualcosa è andato storto. Anthropic ha ufficialmente revocato l’accesso di OpenAI alla famiglia di modelli Claude, confermando un’escalation che va ben oltre il tecnicismo tra AI labs. Il motivo? Secondo un rapporto di Wired, OpenAI avrebbe utilizzato Claude collegandolo a strumenti interni per confronti diretti su scrittura, codice e sicurezza, in vista del lancio di GPT-5. Tradotto: stavano studiando il concorrente troppo da vicino. E a quanto pare, pure usando i suoi utensili da lavoro.

Anthropic non l’ha presa bene. In una dichiarazione a TechCrunch, un portavoce dell’azienda ha precisato che “il team tecnico di OpenAI utilizzava i nostri strumenti di codifica in violazione diretta dei nostri termini di servizio”. Cosa che, nel mondo delle startup AI, equivale a presentarsi a casa di un ex socio in affari, rubare la chiave inglese e usarla per costruire un motore concorrente. I termini commerciali di Anthropic vietano esplicitamente l’uso dei loro modelli Claude per costruire servizi competitivi. Ma qui la questione è ben più profonda della clausola di un contratto d’uso. Siamo dentro la geografia turbolenta di un mercato che oggi non ha ancora leggi chiare, ma regole non scritte rigidamente rispettate da chi vuole dominare il futuro.

OpenAI, ovviamente, ha fatto sapere che si tratta di pratiche “industry standard”, che tradotto dal linguaggio PR suona come: lo fanno tutti, anche voi. Il portavoce ha poi aggiunto che è “deludente che Anthropic abbia deciso di tagliare l’accesso alla nostra API, considerato che la nostra resta aperta a loro”. In altre parole, OpenAI sta dicendo: noi siamo i buoni, voi gli isterici. Il tipico tono da superpotenza digitale che non ammette limiti.

Il tutto avviene mentre Anthropic tiene le distanze non solo da OpenAI, ma da chiunque puzzi di acquisizione strategica. Jared Kaplan, Chief Science Officer dell’azienda, aveva già dichiarato in merito al caso Windsurf (startup poi finita nelle braccia di Cognition, dopo i rumor su un possibile acquisto da parte di OpenAI): “Sarebbe strano vendere Claude a OpenAI”. Strano? No, sarebbe semplicemente suicida. Claude, per chi se lo fosse perso, è uno dei pochi modelli in grado di competere sul serio con GPT-4. In alcuni ambiti, lo supera. Vendere accesso illimitato al principale concorrente oggi equivale a invitare Napoleone a ispezionare il tuo arsenale la notte prima della battaglia. Nessuna startup seria lo farebbe, e tantomeno una fondata da ex membri di OpenAI.

La frizione è significativa non solo per ciò che dice del presente, ma per quello che preannuncia. Il futuro dell’intelligenza artificiale generativa non sarà solo una corsa alla potenza di calcolo o alla qualità dei dati. Sarà guerra di piattaforme, di accessi chiusi, di protezionismo algoritmico. Le API, che fino a ieri erano il simbolo dell’interoperabilità, stanno diventando moneta geopolitica. Aprirle o chiuderle significa scegliere chi potrà costruire il prossimo standard. OpenAI lo ha capito, e nel momento in cui Claude è diventato una minaccia reale, l’ha messo sotto la lente. Anthropic ha reagito come ogni potenza nascente reagisce quando scopre di essere spiata: ha alzato un muro.

Curioso notare come tutto questo avvenga in un ecosistema nato da ideali open. Non dimentichiamolo: sia OpenAI che Anthropic sono creature partorite dallo stesso utero etico, quello del alignment problem, la madre di tutte le ossessioni da laboratorio. Eppure oggi si comportano come Amazon e Microsoft ai tempi d’oro del cloud: in superficie cooperative, sotto sotto pronte a sbranarsi. Con una differenza fondamentale. Qui non parliamo di vendere spazio su un server. Qui si gioca la partita sul modo in cui l’umanità scriverà, coderà, penserà. Gli LLM non sono solo strumenti: sono ambienti cognitivi. E chi li controlla, detta le regole dell’intelligenza futura.

La revoca delle API da parte di Anthropic è un gesto piccolo ma clamoroso. Perché segnala un cambio di stagione. Fino a ieri si parlava di foundation models come commons da coltivare insieme. Oggi si chiudono le porte in faccia al competitor come in un romanzo di John le Carré. La diplomazia tra AI labs si incrina, la fiducia evapora, le tensioni montano. Il problema? Tutti questi modelli sono black box. E se non possiamo più nemmeno studiarci a vicenda, allora nessuno saprà davvero cosa l’altro sta costruendo.

Nel frattempo, l’utente finale resta all’oscuro. Gli evangelisti della trasparenza AI si chiudono dentro camere blindate, i modelli si valutano a vicenda in silenzio, e i benchmark diventano un campo minato. A proposito, la frase “continueremo a consentire l’accesso per scopi di benchmarking e valutazione della sicurezza” suona come una versione algida di “ti lascio il pettine dopo che ti ho sbattuto fuori di casa”.

La verità è che l’industria dell’AI è entrata in una nuova fase: quella del sospetto reciproco. Oggi OpenAI si lamenta, domani farà lo stesso con altri. Anthropic difende i suoi asset perché ha capito che essere generosi in un mercato predatorio non porta alla leadership, ma al cannibalismo. La retorica della condivisione sta crollando sotto il peso della competizione reale. Ogni API revocata è un atto politico, non un problema tecnico.

Chiediamoci: cosa succederà quando tutti i grandi modelli saranno walled gardens inaccessibili tra loro? Quando Claude, GPT-5, Gemini e Mistral non potranno più nemmeno parlarsi, figurarsi confrontarsi? L’interoperabilità morirà prima ancora di nascere. E allora non sarà più una corsa all’AI generale, ma una guerra fredda tra ecosistemi cognitivi chiusi, ciascuno con il suo linguaggio, i suoi dati, i suoi utenti. Un’AI senza common ground, come Internet senza protocolli.

La storia del taglio API tra OpenAI e Anthropic è solo un antipasto. Aspettiamoci embargo tecnologici, spionaggio algoritmico, e magari qualche fuga di dati strategici. Perché il futuro non sarà solo scritto dai modelli. Sarà deciso da chi li lascerà parlare. O li farà tacere.