Difficile non sorridere davanti all’ultima trovata di Anthropic: Claude Explains, il blog in cui l’intelligenza artificiale Claude finge di avere qualcosa da spiegare, e gli umani fingono che sia tutto spontaneo. Un piccolo angolo della Silicon Valley in cui l’algoritmo si traveste da divulgatore, mentre una redazione invisibile gli regge il gobbo come in un vecchio varietà televisivo.

Benvenuti nel futuro della comunicazione, dove i contenuti non sono più pensati per essere letti, ma per essere indicizzati, reimpacchettati e, soprattutto, ammirati da altri algoritmi.

Non siamo più nell’era dell’autore, ma nella sua pantomima.

Il colmo? Sul sito di Claude Explains c’è scritto che “Claude scrive su ogni argomento sotto il sole.” Chiunque sappia come funziona un LLM sa che sì, effettivamente lo fa. Ma sa anche che molto spesso, quello che scrive, sotto il sole fonde come la cera. Non che importi, visto che è tutto supervisionato, raffinato, ottimizzato da “esperti” umani che in perfetto stile marketing 5.0 amplificano la collaborazione uomo-macchina in salsa LinkedIn: l’umano nobilita l’AI, l’AI aumenta l’umano, e tutti si stringono in un abbraccio produttivo e generativo.

Ovviamente, il lettore casuale non lo capisce subito. Perché l’apparente autonomia dell’AI è un’esca. In realtà, Claude non spiega nulla: riceve prompt, produce bozze, e viene poi remixato da un team editoriale che si premura di renderlo leggibile, credibile, e talvolta persino utile. Il tutto, con l’obiettivo dichiarato di “amplificare l’expertise” anziché sostituirla. Un po’ come dire che il sintetizzatore ha aiutato Mozart, o che Photoshop ha migliorato Caravaggio.

Dietro questa facciata, però, si nasconde una strategia ben più profonda. Claude Explains è un prototipo. Un modo per testare, e soprattutto legittimare, l’uso sistematico dell’AI nella produzione di contenuti editoriali. Non stiamo parlando di semplici newsletter o post su Medium, ma della futura ossatura comunicativa delle aziende tech. Una pipeline in cui l’AI fa il grosso, l’umano corregge, e la reputazione si mantiene grazie all’ambiguità.

Il parallelismo con le recenti mosse di OpenAI, Meta, Bloomberg e persino il New York Times non è casuale. Tutti stanno sperimentando alcuni maldestramente su come l’intelligenza artificiale possa infilarsi in ogni punto della catena editoriale. Dal titolo all’intervista, dallo storytelling alle strategie di branding, passando ovviamente per le famigerate “summary” generate in automatico. Con risultati, diciamolo, spesso tragicomici.

Business Insider ha consigliato libri inesistenti. G/O Media ha pubblicato articoli pieni di errori. Bloomberg ha dovuto correggere decine di sintesi automatiche. E nel frattempo, dietro le quinte, i licenziamenti fioccano. Ma tranquilli: si assume ancora, dice Anthropic. In marketing. In contenuti. In redazione. Per fare cosa, esattamente? Supervisionare Claude mentre spiega?

Nel frattempo, Zuckerberg promette campagne pubblicitarie create end-to-end da AI, e Sam Altman prevede che il 95% del lavoro dei creativi sarà presto sostituibile da modelli generativi. Ci stiamo lentamente abituando all’idea che il contenuto non abbia più bisogno di coscienza, contesto, o coerenza. Serve solo che esista. Che sia pubblicato, tracciato, cliccato. E che alimenti altri modelli, in un ciclo autoreferenziale dove la verità è solo un byproduct.

Il punto più surreale di tutta questa storia è che la “trasparenza” viene invocata proprio mentre si costruisce un’illusione. Il blog Claude Explains è la versione 2025 della vecchia truffa pubblicitaria: fingi che qualcosa sia interamente generato da AI, mentre dietro c’è un team di umani che lavora giorno e notte per renderla meno stupida. È il Truman Show degli LLM: noi applaudiamo l’AI, ma in realtà stiamo premiando la meticolosa opera del suo staff tecnico.

E c’è un motivo se questa dinamica funziona: l’AI scrive come noi, ma più veloce. Più prolifica. Più inarrestabile. E allora, anche quando fa schifo, anche quando sbaglia, anche quando si inventa fonti e dati, è comunque meglio di un copywriter umano che ha bisogno di mangiare, dormire e, ogni tanto, avere un’idea. Claude non ha sindacati. Non ha ansie esistenziali. E soprattutto, non ha percentuali di fatturato.

In questo senso, Claude Explains non è un blog. È un trojan horse. Un modello replicabile, scalabile, integrabile in ogni dipartimento comunicativo. Se funziona per le guide tecniche, perché non per le email? Per le presentazioni? Per i report annuali? Per i comunicati stampa? Claude non spiega, Claude normalizza. E Anthropic lo sa benissimo.

Ma attenzione: proprio in questa apparente efficienza si nasconde il limite. Perché un contenuto generato da AI, anche quando è raffinato da esperti, non ha pelle, non ha sangue, non ha voce. Ha semmai una parvenza, un’imitazione, una maschera. Può andare bene per spiegare come semplificare un codebase, ma che succede quando deve interpretare una crisi reputazionale, scrivere un eulogo, raccontare una rivoluzione?

“L’intelligenza artificiale è un bravo allievo, ma un pessimo maestro,” scriveva qualcuno che forse Claude non ha ancora letto. O peggio: lo ha letto, ma non l’ha capito.