Quello che sta accadendo in Wikipedia in questi mesi è una sorta di stress test globale per l’ecosistema dell’informazione, e la reazione dei suoi editori volontari assomiglia pericolosamente al comportamento di un sistema immunitario sotto attacco. Gli agenti patogeni in questione non sono malware o cyber-attacchi, ma bozze malconce e citazioni inventate di sana pianta, prodotte in quantità industriale da strumenti di scrittura basati su intelligenza artificiale. Il problema non è tanto l’esistenza di questi testi, ma la velocità con cui riescono a invadere lo spazio editoriale e la difficoltà di bonificarlo senza consumare energie e tempo che, in teoria, dovrebbero essere destinati al miglioramento della qualità complessiva dei contenuti.

Wikipedia ha deciso di passare alle maniere forti con una nuova regola di “cancellazione rapida” che permette agli amministratori di eliminare senza discussione articoli chiaramente generati da AI e non revisionati da esseri umani. La decisione spezza la liturgia abituale dei sette giorni di dibattito comunitario, introducendo un meccanismo chirurgico: se un articolo mostra tracce evidenti di essere uscito da un chatbot, sparisce. Tra i segnali più ovvi ci sono frasi in stile tutorial del tipo “Ecco il tuo articolo di Wikipedia su…”, citazioni con ISBN impossibili o DOI che puntano nel nulla, e riferimenti bibliografici che sembrano usciti da un generatore casuale. Ma la diagnosi non si ferma alla forma: gli editor esperti riconoscono anche l’eccesso di parole connettive come “inoltre” usate a tappeto, il tono promozionale camuffato da neutralità, e quei piccoli dettagli tipografici che tradiscono l’uso di un algoritmo, come le virgolette ricurve invece di quelle dritte.

Questa è una guerra di logoramento che si gioca su due piani: quello della quantità e quello della qualità. Sul primo fronte, l’AI ha il vantaggio della velocità e della scalabilità, producendo testi mediocri a ritmo da catena di montaggio. Sul secondo, la comunità di Wikipedia punta tutto sul capitale umano, cioè sulla capacità di valutare, correggere e soprattutto rifiutare ciò che non rispetta la sua etica editoriale. È una battaglia asimmetrica, in cui la parte umana deve difendersi non solo dai testi spazzatura, ma dal rischio di normalizzare la loro presenza, lasciando che lo standard di qualità si abbassi progressivamente.

Curiosamente, la Wikimedia Foundation non è affatto contraria all’uso dell’AI. Anzi, ne fa già uso per individuare modifiche vandaliche e ha inserito nel suo piano strategico l’idea di sviluppare strumenti che aiutino i volontari a gestire compiti ripetitivi e traduzioni. È il paradosso classico della tecnologia: lo stesso strumento che può inquinare il sistema informativo è anche quello che, se usato con attenzione, può rafforzarlo. Il problema è che, come in qualunque ecosistema, introdurre un predatore può riequilibrare la fauna o distruggerla, a seconda di come lo si gestisce.

Il progetto Edit Check, ancora in fase di sviluppo, è il tentativo della Wikimedia Foundation di creare una barriera di ingresso più intelligente. Il sistema oggi è in grado di segnalare la mancanza di citazioni o di controllare il tono di un testo, ma presto potrebbe integrare un “Paste Check” capace di chiedere a un autore se il blocco di testo incollato è stato davvero scritto da lui. Alcuni volontari suggeriscono persino di obbligare chi incolla contenuti sospetti a dichiarare quanta parte sia stata generata da un chatbot. È un approccio che mescola deterrenza psicologica e analisi tecnica, nella speranza di ridurre la mole di rifiuti digitali prima che arrivi alla revisione umana.

Quello che affascina e inquieta è che l’AI non sta solo cambiando il modo in cui si produce informazione, ma anche la cultura stessa della verifica. L’idea di neutralità, pilastro di Wikipedia, viene messa alla prova da testi che imitano perfettamente il linguaggio neutro ma veicolano errori sottili, citazioni inesistenti e collegamenti invisibili. È una manipolazione subdola, perché non punta a convincere il lettore con argomenti, ma a saturare l’ecosistema informativo fino a far passare il falso per normale. Marshall Miller ha ragione a parlare di sistema immunitario: non si tratta di vincere una battaglia, ma di mantenere una resistenza costante, adattandosi a un nemico che evolve alla stessa velocità con cui muta il linguaggio stesso.

Se il passato di Wikipedia è stato dominato da dibattiti infiniti tra esseri umani, il futuro sembra segnato da un duello meno romantico ma più cruciale: quello tra intelligenza artificiale e intelligenza editoriale. In questo scenario, la vera sfida non sarà tanto impedire all’AI di scrivere, quanto assicurarsi che non diventi il nuovo standard di mediocrità. Perché se c’è una cosa che la storia ci insegna, è che quando la spazzatura diventa la norma, il problema non è più l’immondizia, ma il fatto che nessuno la riconosca più come tale.