Nel teatro sempre più affollato dell’intelligenza artificiale applicata, Anthropic decide di spostare il sipario un po’ più avanti, entrando in una zona che fino a pochi mesi fa sembrava territorio esclusivo di prototipi accademici e demo da conferenza. Il nuovo annuncio, accompagnato da un entusiasmo quasi sospetto, è semplice nella forma e radicale nella sostanza: Claude non si limita più a suggerire, ora esegue.
L’idea che un modello linguistico possa controllare direttamente un sistema operativo non è nuova, ma fino a ieri era confinata tra hack, automazioni fragili e qualche proof of concept elegante ma inutilizzabile. Oggi, con Cowork e Dispatch, Anthropic prova a trasformare quella promessa in prodotto, e lo fa con una velocità che dovrebbe inquietare più dei soliti discorsi sull’allineamento. Quattro settimane dopo l’acquisizione di Vercept, una startup specializzata nell’uso operativo dei computer, arriva un rilascio che sembra suggerire una roadmap già scritta da tempo, come se l’innovazione fosse meno improvvisata di quanto il marketing voglia far credere.
Claude, nella sua nuova incarnazione, clicca, digita, naviga tra applicazioni, compila fogli di calcolo e redige documenti. Non è più un copilota, è un sostituto parziale del comportamento umano davanti allo schermo. Il dettaglio più interessante, però, non è ciò che fa, ma come decide di farlo. Prima tenta integrazioni dirette con le applicazioni, poi passa al browser, e solo in ultima istanza prende il controllo dello schermo. Una gerarchia che sembra progettata più per rassicurare gli auditor che per ottimizzare le performance, ma che rivela una consapevolezza: il vero problema non è la capacità tecnica, è la fiducia.
Fiducia è una parola abusata nel lessico dell’intelligenza artificiale, spesso usata come sinonimo elegante di “speriamo che non succeda nulla di grave”. Qui assume una connotazione più concreta. Consentire a un agente AI di interagire direttamente con il desktop significa concedergli accesso implicito a dati sensibili, flussi di lavoro critici e, in molti casi, errori irreversibili. L’etichetta “anteprima di ricerca” non è una precauzione semantica, è una clausola di sopravvivenza reputazionale. Serve a dire: lo sappiamo, è potente, ma non siamo ancora pronti a prenderci tutta la responsabilità.
Il target iniziale, limitato agli utenti macOS con piani Pro o Max, è una scelta che mescola strategia commerciale e contenimento del rischio. Ridurre la superficie di attacco, testare su un’utenza più sofisticata, raccogliere feedback senza scatenare il caos. Nel frattempo, una versione Windows è in sviluppo, il che suggerisce che l’obiettivo non è sperimentare, ma scalare. E quando qualcosa scala nel mondo AI, raramente lo fa in modo lineare o prevedibile.
La funzione Dispatch aggiunge un ulteriore livello di ambizione. Avviare attività dal telefono mentre si è lontani dal computer è una promessa che riecheggia vecchie visioni di “computing ubiquitario”, ma con una differenza sostanziale. Qui non si tratta di sincronizzazione tra dispositivi, ma di delega operativa. Non si accede al proprio desktop da remoto, si chiede a un agente di agire al posto nostro. È un cambio di prospettiva sottile ma decisivo. Non controlliamo più il sistema, lo supervisioniamo.
Questo spostamento, apparentemente incrementale, ha implicazioni profonde sul modo in cui concepiamo il lavoro digitale. Per decenni abbiamo ottimizzato l’interfaccia uomo-macchina, riducendo attriti, velocizzando input, raffinando UX. Ora la direzione si inverte. Non miglioriamo più l’interfaccia, la eliminiamo. Il desktop, simbolo di produttività dagli anni Novanta, diventa un layer intermedio destinato a scomparire, o quantomeno a essere invisibile. La frase attribuita ad Alex Albert, secondo cui presto non sarà più necessario aprire il portatile per lavorare, non è una provocazione, è una previsione operativa.
Naturalmente, ogni previsione nel mondo AI è anche un esercizio di storytelling. La Silicon Valley ha una lunga tradizione nel vendere futuri inevitabili che poi si rivelano, nella migliore delle ipotesi, parzialmente realizzati. Tuttavia, alcuni segnali meritano attenzione. Il fatto che l’annuncio abbia superato i 30 milioni di visualizzazioni in meno di 24 ore indica non solo interesse, ma una certa prontezza del mercato ad accettare questo tipo di evoluzione. Non è più fantascienza, è una feature.
Resta da capire se la promessa di automazione totale del lavoro su desktop sia sostenibile nel medio periodo. Gli agenti che operano su interfacce grafiche sono intrinsecamente fragili. Un cambiamento nell’UI, un popup imprevisto, una latenza di rete, e l’intero flusso può collassare. Le demo funzionano perché il contesto è controllato. La realtà operativa è meno indulgente. In questo senso, l’approccio di Anthropic, che privilegia integrazioni dirette prima di ricorrere al controllo dello schermo, è tecnicamente sensato, ma introduce complessità architetturale e dipendenze difficili da gestire su larga scala.
Il confronto implicito con altri player del settore è inevitabile, anche se raramente esplicitato. OpenAI, Google e Microsoft stanno tutti esplorando varianti dello stesso concetto: agenti che non si limitano a generare testo, ma orchestrano azioni. La differenza sta nella velocità di esecuzione e nel grado di integrazione verticale. Anthropic, con questa mossa, sembra voler guadagnare terreno, posizionandosi come il player più aggressivo sul fronte dell’autonomia operativa.
Curiosamente, questa corsa all’automazione totale avviene mentre il dibattito pubblico sull’AI è ancora dominato da temi come allucinazioni, bias e regolamentazione. È come discutere della sicurezza delle cinture mentre qualcuno sta già progettando auto senza volante. Il rischio non è solo tecnologico, è culturale. Gli utenti potrebbero trovarsi a delegare sempre più decisioni operative a sistemi che comprendono solo parzialmente, in un equilibrio instabile tra efficienza e controllo.
Una vecchia massima dell’informatica recita che ogni livello di astrazione nasconde complessità sottostante. Qui stiamo costruendo un livello di astrazione sopra l’intero sistema operativo, delegando a un modello linguistico la gestione di interazioni che prima erano esplicite. È un salto che ricorda, per certi versi, l’introduzione dei sistemi operativi stessi, quando si passò dal controllo diretto dell’hardware a interfacce più amichevoli. All’epoca, pochi avrebbero previsto che quella scelta avrebbe ridefinito interi settori industriali. Oggi, potremmo essere in una fase analoga, con la differenza che il ritmo è esponenziale e la tolleranza all’errore molto più bassa.
Il cinismo suggerisce cautela. Ogni nuova ondata tecnologica porta con sé promesse di efficienza e liberazione dal lavoro ripetitivo, ma anche nuove forme di dipendenza e complessità nascosta. Claude che controlla il desktop è affascinante, quasi elegante nella sua ambizione, ma apre una serie di domande che vanno oltre la demo. Chi è responsabile di un errore? Come si auditano le azioni di un agente? Qual è il confine tra automazione e delega cieca?
Nel frattempo, il mercato osserva, sperimenta, applaude. Alcuni adotteranno subito, attratti dal vantaggio competitivo. Altri aspetteranno, citando sicurezza e compliance, ma in realtà cercando di capire se la curva di apprendimento vale il rischio. In entrambi i casi, una cosa appare chiara. Il desktop, così come lo conosciamo, sta iniziando a diventare un dettaglio implementativo. E quando un’interfaccia diventa un dettaglio, significa che qualcuno, da qualche parte, ha già deciso di eliminarla.
blog https://claude.com/product/cowork