Anthropic ha appena fatto un passo strategico in quella che ormai è una guerra di logoramento tra giganti dell’IA, introducendo la sua funzione di memoria per Claude con il tono da promessa salvifica: “mai più perdere il filo del lavoro”. La demo su YouTube è studiata al millimetro per colpire l’utente professionale che teme più di ogni altra cosa di riaprire una chat e dover ricominciare da zero. Invece di una memoria onnipresente alla ChatGPT, qui c’è un approccio “on demand”: il bot non ti profila, non ti spia, semplicemente recupera quello che gli chiedi. La differenza è sottile ma cruciale, ed è già destinata a essere oggetto di interpretazioni creative in sede legale e di marketing.

Il rollout non è casuale. Parte da Max, Team ed Enterprise, i segmenti ad alto valore dove la retention vale più dell’acquisizione. Si abilita con un clic sotto “Search and reference chats” e promette di funzionare in modo coerente su web, desktop e mobile, mantenendo i progetti separati come se fosse un project manager con una memoria selettiva. È una risposta elegante ma incompleta alla narrativa dominante creata da OpenAI con la sua memoria persistente, che ha già generato sia entusiasmo che panico. Lo storytelling di Anthropic gioca su una parola chiave fondamentale nel lessico della produttività: continuità.

È chiaro che la mossa non riguarda solo l’utente, ma anche gli investitori. OpenAI ha appena lanciato GPT-5, alzando l’asticella tecnologica, e Anthropic sta cercando un round che potrebbe valutarla fino a 170 miliardi di dollari. In questo contesto, ogni feature non è solo una feature, ma un segnale di direzione strategica. La memoria non è semplicemente una comodità, è un meccanismo per aumentare la “stickiness”, cioè il tempo e la frequenza con cui un utente rimane legato a un ambiente chiuso, riducendo il rischio che vada a testare alternative.

Il fatto che non sia una memoria automatica persistente è sia un vantaggio che una limitazione. Vantaggio perché evita le inquietudini legate a un bot che ricorda tutto e ti profila, limitazione perché toglie quella sensazione di “compagno digitale” che, piaccia o meno, sta alimentando l’uso terapeutico e para-terapeutico di ChatGPT. In rete c’è già chi parla di “psicosi da ChatGPT”, un termine che non farà piacere ai legali di OpenAI ma che indica un fenomeno reale: la tendenza di alcuni utenti a proiettare relazioni e aspettative emotive su un software che non ha alcuna competenza clinica.

Questa differenza di approccio nella gestione della memoria è un punto tecnico ma anche politico. La scelta di Anthropic riflette una visione più “opt-in” e meno intrusiva, quasi a voler posizionarsi come il player responsabile in un mercato in cui la velocità di rollout spesso conta più della cautela. È un posizionamento utile se si vuole conquistare il settore enterprise, dove la compliance non è un optional. Allo stesso tempo, rischia di essere percepito come un mezzo passo indietro in termini di user experience per l’utente consumer che si aspetta ormai un assistente che anticipa, non solo risponde.

Il parallelo con la corsa agli armamenti è inevitabile. Si combatte su più fronti: contesto massimo gestibile, modalità vocali, segmentazione delle subscription, e ora funzioni di memoria. Ogni rilascio è un messaggio implicito agli investitori: “siamo ancora in partita, e la nostra architettura è scalabile verso il futuro”. Il problema è che la concorrenza corre e le feature diventano commodity in settimane, non mesi. Un vantaggio competitivo oggi è una checkbox domani.

Se la memoria è la nuova arena di scontro, allora il vero gioco non sarà chi la implementa, ma chi la rende indispensabile. Ed è qui che la strategia di Anthropic dovrà dimostrare di avere più di un paio di colpi in canna, perché nel lungo periodo il valore non sarà in quello che il bot può ricordare, ma in come usa quei ricordi per influenzare, anticipare e guidare l’utente. Il confine tra assistenza e direzione si assottiglia, e chi saprà controllarlo avrà in mano non solo la tecnologia, ma la relazione stessa con l’utente.