Il piagnisteo è sempre lo stesso. I grandi editori urlano al tradimento mentre guardano le curve di traffico sprofondare come un grafico azionario dopo uno scandalo contabile. Ma non è un incidente, è un cambio di paradigma annunciato, chirurgico e spietato. Google Discover, che fino a ieri era l’ultima fonte di ossigeno per molti giornali già asfissiati dal crollo del traffico organico, ora si popola di riassunti generati da intelligenza artificiale. Non più titoli accattivanti che spingono l’utente a cliccare, ma un sommario sintetico, firmato da un algoritmo che cita le fonti con un paio di loghi in un angolo, come un notaio distratto che appone la firma senza neanche leggere. “Questi riassunti sono generati con AI, che può commettere errori”, avverte candidamente l’app. Una frase che vale più come scudo legale che come reale preoccupazione etica. Il messaggio subliminale è un altro: “ti basta questo, non serve che tu apra il sito”.
Il problema non è tanto la tecnologia quanto la filosofia che la guida. L’utente non è più un lettore, ma un consumatore di sintesi. Se prima dovevi competere per un clic, ora devi competere per una citazione in un riassunto scritto da un modello linguistico che non ha alcun interesse nel mantenere in vita il tuo business. I dati lo dimostrano, e sono impietosi. Similarweb calcola un crollo del traffico organico del 15% anno su anno e, peggio ancora, il tasso di ricerche che non generano alcun clic verso i siti di news è passato dal 56% di maggio 2024 al 69% nel maggio 2025. Siamo oltre il punto di non ritorno. Le visite organiche globali, un tempo oltre i 2,3 miliardi, oggi non arrivano a 1,7 miliardi. È come se un’intera metropoli di lettori fosse sparita.
La mossa è chirurgica. Google non ha bisogno di rubarti i contenuti, basta che li riformatti. Discover diventa così un feed personalizzato dove l’AI ti serve una degustazione di notizie, condita da loghi che rassicurano sulla fonte, ma senza spingerti a visitarla. Eppure i publisher sembrano più sorpresi che furiosi, quasi non volessero ammettere che è esattamente ciò che hanno accettato per anni, consegnando contenuti in un ecosistema che li ha sempre trattati come commodity. Ironia della sorte, gli stessi editori che oggi si lamentano stavano sperimentando l’AI in casa, da The Wall Street Journal a USA Today, illudendosi di cavalcare l’onda mentre il surf era già finito e l’acqua si ritirava.
Google risponde con il solito compromesso cosmetico: Offerwall, micropagamenti, sondaggi, newsletter. Un content casino per cercare di monetizzare quello che non è più traffico, ma solo frammenti di attenzione. È come offrire una salvagente a chi sta affondando con una petroliera. Gli editori che si aggrappano a queste soluzioni sembrano quei giocatori d’azzardo che, dopo una serata disastrosa, chiedono un ultimo gettone sperando nel colpo di fortuna.
Nel frattempo, il consumatore medio si abitua. Perché dovrebbe cliccare su un articolo intero quando un riassunto ben fatto, magari arricchito da qualche bullet point generato automaticamente, gli offre la stessa dopamina cognitiva in meno di dieci secondi? Scorri, leggi, dimentica. È il TikTok dell’informazione. E se un lettore vuole approfondire, l’AI è pronta a generare follow-up, a spiegarti i “diversi punti di vista” senza bisogno di un singolo clic in più. Particle, Perplexity, ChatGPT, sono tutti lì a completare il lavoro. Il sito del publisher diventa solo un database di training, un museo di contenuti usati e riciclati.
Il paradosso è che molti di questi editori hanno spinto proprio su SEO e clickbait per anni, rendendo i propri contenuti intercambiabili, perfetti per essere triturati da un algoritmo che ragiona solo in termini di pattern e probabilità. Hanno creato un web ottimizzato per le macchine e ora si lamentano che le macchine lo leggono meglio degli umani. “Be careful what you wish for”, direbbero negli Stati Uniti.
C’è poi l’aspetto più inquietante, che pochi sembrano voler affrontare apertamente. Chi controlla l’algoritmo controlla anche la gerarchia della verità. Un riassunto AI che seleziona tre fonti e ne ignora altre non è solo un servizio, è un atto di potere editoriale. Quale percentuale di utenti andrà a verificare se l’interpretazione offerta è fedele all’articolo originale? La risposta è zero virgola qualcosa, e Google lo sa. Il che rende ogni aggiornamento dell’algoritmo una decisione editoriale globale.
I publisher, a questo punto, hanno due opzioni. Possono continuare a piangere su Similarweb come se fosse un oracolo funesto o possono reinventarsi, ma per farlo devono smettere di credere che il traffico gratuito ritornerà. L’unica via d’uscita è creare contenuti che l’AI non può riassumere senza perdere valore. Informazioni esclusive, analisi che non si prestano a essere compresse in tre righe, o meglio ancora esperienze interattive che trasformino il lettore in parte attiva. Ma questo richiede investimenti, visione e coraggio, tre cose che scarseggiano in un’industria che ha preferito giocare sul volume e sulla pubblicità facile.
La verità, e qui arriva la parte più scomoda, è che per Google questa è solo la naturale evoluzione del suo prodotto. Scorciatoie cognitive che riducono il tempo tra domanda e risposta, esattamente quello che gli utenti vogliono. Il motore di ricerca non è mai stato un amico dei publisher, è sempre stato un intermediario che massimizza la propria utilità. Ora, con le AI summaries, l’intermediazione diventa totale. Non ti porta al contenuto, te lo dà già filtrato. Gli editori si indignano, ma in realtà sono solo infastiditi perché non possono più vivere di rendita.