
Wikipedia sta perdendo visitatori umani. Non utenti distratti, non curiosi occasionali, ma persone in carne e ossa. La Wikimedia Foundation ha ammesso un calo di traffico umano di circa l’8% tra maggio e agosto 2025 rispetto allo stesso periodo dell’anno precedente, dopo aver scoperto che una parte significativa delle visite proveniva da bot mascherati da esseri umani, in gran parte provenienti dal Brasile. È una scoperta imbarazzante ma rivelatrice: il più grande archivio di conoscenza condivisa della storia moderna è diventato terreno fertile per algoritmi che si travestono da lettori. Un paradosso perfetto per l’era dell’intelligenza artificiale generativa.
Dopo l’aggiornamento dei sistemi di rilevazione, la fondazione ha ricalibrato i dati e ha scoperto ciò che chi lavora nei media sospettava da tempo. Le persone non vanno più su Wikipedia per leggere, perché le risposte le trovano già pronte altrove, impacchettate da Google o da chatbot che citano (quando va bene) la fonte originale. Marshall Miller, dirigente di Wikimedia, lo ha ammesso senza giri di parole: “I cali riflettono l’impatto dell’intelligenza artificiale generativa e dei social media sul modo in cui le persone cercano informazioni, con i motori di ricerca che offrono risposte direttamente basate su contenuti di Wikipedia.”
Il punto è semplice e inquietante. I lettori non spariscono, vengono intercettati prima. Google, Bing, Perplexity e gli altri motori di ricerca diventano filtri cognitivi, intermediari del sapere che non rimandano più alla sorgente, ma riscrivono la sorgente. E qui il cortocircuito è filosofico prima ancora che economico: l’enciclopedia libera che ha alimentato il web della conoscenza viene cannibalizzata dal web dell’AI, che la usa come combustibile per generare versioni sintetiche dello stesso sapere.
I numeri raccontano una storia più ampia. Secondo Pew Research, il traffico referral da Google Search ai principali editori è diminuito quasi ogni settimana durante maggio e giugno 2025, con le perdite che superano i guadagni in un rapporto di due a uno. Significa che la maggior parte delle ricerche non genera più clic verso le fonti originali. Oggi quasi il 60% delle query su Google termina dentro un riepilogo AI. L’utente chiede, il modello risponde, il ciclo cognitivo si chiude. Wikipedia e gli editori restano fuori dalla conversazione, ridotti a materiali grezzi di un’intelligenza che produce contenuti senza più il bisogno di “linkare”.
Danielle Coffey, a capo della News/Media Alliance che rappresenta più di 2000 testate, ha sintetizzato la situazione in modo chirurgico: “È parassitario, insostenibile e rappresenta una minaccia esistenziale.” Il tono non è iperbole, è disperazione lucida. I grandi gruppi editoriali si trovano in trincea a difendere il diritto d’autore contro piattaforme che, di fatto, estraggono valore senza compensazione. Chi sceglie di bloccare l’indicizzazione AI rischia di scomparire dai risultati di ricerca, chi accetta di farsi indicizzare si condanna a diventare un ingrediente invisibile di un pasto altrui.
Wikipedia non è un editore commerciale, ma vive di un equilibrio altrettanto fragile. Meno visite significano meno volontari, meno donazioni, meno contenuti nuovi. È un ecosistema che si regge sulla motivazione intrinseca delle persone, e quella motivazione si nutre di visibilità. Se nessuno legge, nessuno scrive. Se l’intelligenza artificiale diventa il nuovo intermediario universale, allora il concetto stesso di “enciclopedia libera” rischia di svanire.
La fondazione ha reagito con un certo realismo. Sta lavorando a politiche più rigide per l’accesso dei terzi ai dati, a un sistema di attribuzione più trasparente e a esperimenti per portare la conoscenza libera sulle piattaforme dove oggi si formano le nuove generazioni, come YouTube e TikTok. È un tentativo di restare rilevante in un ambiente dove la ricerca classica è stata sostituita dallo scroll infinito e dalle risposte istantanee. Ma è anche un riconoscimento implicito di sconfitta: Wikipedia non è più il punto di partenza della conoscenza, ma un archivio sottostante, invisibile e indispensabile, come un’infrastruttura digitale che nessuno vede ma tutti usano.
Il problema, però, è più profondo della semplice riduzione del traffico organico. L’AI generativa sta ridisegnando la catena del valore informativo. Fino a pochi anni fa, il motore di ricerca funzionava come un indexatore: organizzava il sapere e portava il lettore alla fonte. Oggi è diventato un produttore di contenuti, capace di rispondere in modo sintetico, persuasivo e completo. L’utente non “cerca” più, “dialoga”. E ogni dialogo è un’interazione che alimenta ulteriormente l’algoritmo, chiudendo un cerchio perfetto dove la fonte umana diventa un residuo.
I dati di Graphite, società di SEO intelligence, fotografano la mutazione in atto. A novembre 2024 quasi la metà dei nuovi articoli pubblicati online era generata con l’aiuto dell’AI, contro il 5% del periodo pre-ChatGPT. In pochi mesi, l’intelligenza artificiale è diventata il principale produttore di testi del pianeta. Perplexity ha confermato la tendenza, proiettando una quota del 90% entro il prossimo anno. Se queste previsioni si avvereranno, nel 2026 la maggior parte dei contenuti che leggiamo non sarà stata scritta da un essere umano.
Il paradosso è che l’AI continua a nutrirsi proprio di quei contenuti umani che sta sostituendo. Wikipedia è l’esempio perfetto di questa dinamica cannibalica. È la fonte che alimenta i modelli linguistici, ma la stessa AI sta erodendo la base volontaria e finanziaria che permette a quella fonte di esistere. È come se le api iniziassero a succhiare il miele dai fiori che non possono più impollinare.
C’è un’ironia amara in tutto questo. Per anni, gli accademici hanno criticato Wikipedia per la sua natura “non professionale”, accusandola di mancanza di rigore, di affidarsi troppo al consenso collettivo. Ora è proprio quell’enciclopedia amatoriale ad apparire come l’ultimo baluardo del sapere umano verificabile. Nell’oceano di contenuti sintetici, il valore di un testo scritto e rivisto da persone reali, con le loro imperfezioni e i loro conflitti, diventa improvvisamente raro.
Le implicazioni per il SEO sono devastanti. Le strategie tradizionali di ottimizzazione per i motori di ricerca stanno perdendo efficacia, perché il traffico organico viene intercettato dalle risposte AI. Le parole chiave non bastano più; servono segnali semantici, autorevolezza, tracciabilità della fonte. I siti che sopravvivranno saranno quelli capaci di dialogare con gli algoritmi, non solo di farsi trovare dagli utenti. In questo scenario, Wikipedia è la vittima più illustre, ma non sarà l’unica.
Il nuovo ecosistema informativo si fonda su un’asimmetria perfetta. Le piattaforme di AI generativa estraggono valore cognitivo da miliardi di pagine web, ma restituiscono pochissimo traffico. È un modello di estrazione intellettuale che ricorda le economie coloniali: il sapere locale viene prelevato, raffinato e rivenduto con un marchio globale. Il tutto in nome dell’efficienza e della personalizzazione. L’utente ottiene la risposta, ma perde il contesto. L’informazione diventa nutrimento immediato, non conoscenza duratura.
Wikipedia compie 25 anni in un mondo dove la conoscenza è sempre più automatizzata e mediata da intelligenze sintetiche. Eppure la sua esistenza resta cruciale. Senza Wikipedia, l’AI generativa perderebbe gran parte del suo ossigeno linguistico. Ma se le piattaforme continuano a drenare valore senza restituirlo, il rischio è un collasso silenzioso del sapere condiviso. Un giorno potremmo scoprire che l’AI sa molte cose, ma non sa più da dove vengano.
Il futuro del web aperto dipenderà dalla capacità delle istituzioni del sapere di reinventarsi come infrastrutture sostenibili e riconoscibili. Forse Wikipedia dovrà diventare qualcosa di diverso: un archivio certificato, una rete semantica per l’AI, una blockchain della conoscenza. O forse dovrà semplicemente tornare a essere ciò che era all’inizio: un esperimento radicale di collaborazione umana contro la centralizzazione dell’informazione.
Chi pensa che questa sia una crisi di traffico non ha capito la portata del cambiamento. Non è Wikipedia che sta perdendo utenti, è l’umanità che sta delegando la propria curiosità. La domanda non è più “quante persone leggono Wikipedia”, ma “quante persone leggono ancora qualcosa”.