Wikipedia, la madre di tutte le enciclopedie digitali, simbolo del crowdsourcing umano e baluardo della conoscenza democratica, sta flirtando ufficialmente con l’intelligenza artificiale generativa. Non è fantascienza, non è un esercizio accademico: la Wikimedia Foundation ha confermato che inizierà a integrare sistemi di AI per automatizzare alcuni passaggi “noiosi” della creazione e manutenzione delle voci. In altre parole, mentre gli umani restano (per ora) i curatori ufficiali dei contenuti, sarà l’AI a sporcarsi le mani con il lavoro sporco.

Questa mossa segna un punto di svolta culturale e tecnico. Fino ad oggi, Wikipedia ha resistito a ogni tentazione di automatizzare la conoscenza, difendendo con le unghie e con i denti il principio che il sapere debba essere validato, discusso e scritto da esseri umani. Ma evidentemente anche la pazienza dei volontari ha un limite, soprattutto quando si tratta di aggiornare formati, pulire codice, o uniformare stili di scrittura tra milioni di pagine.

Il progetto si chiama “AutoWikiBrowser”, uno strumento che già da anni aiutava gli editor a fare modifiche massive e noiose. Ma ora si sta passando allo step successivo: l’uso di modelli di linguaggio generativo per generare bozze di articoli, suggerire sezioni mancanti, tradurre contenuti da altre lingue o riassumere fonti in modo sintetico ma accurato. La Wikimedia Foundation sta testando questi strumenti in progetti pilota in versioni linguistiche meno frequentate di Wikipedia, come quella ceca e indonesiana. Perché? Semplice: lì c’è meno rischio di alzate di scudi ideologiche, meno visibilità e più tolleranza per l’errore.

Naturalmente la narrativa ufficiale è zuccherata: l’AI non sostituirà mai i redattori umani, dicono. Sarà solo un aiutante, un braccio meccanico, una stampella per un enciclopedia sempre più vasta e difficile da mantenere. Ma chi ha seguito anche solo di sfuggita l’evoluzione dell’AI sa bene come queste “stampelle” diventino presto le gambe principali. Basta guardare cos’è successo nel giornalismo, nel customer service, nella programmazione.

Il problema, come sempre, è l’ambiguità tra “supporto” e “sostituzione”. Quando una bozza scritta da AI viene poi solo “validata” da un umano stanco e malpagato (o volontario demotivato), chi è davvero l’autore? E soprattutto: chi si assume la responsabilità di errori, bias, omissioni o distorsioni storiche generate da un modello statistico addestrato sul caos del web? Wikimedia assicura che gli articoli prodotti da AI non verranno pubblicati automaticamente. Ma non esiste filtro che possa fermare un’informazione fasulla se la supervisione umana è debole, distratta o cieca dalla fiducia nell’automazione.

E poi c’è la questione del futuro. Una Wikipedia semi-automatizzata apre le porte a un cambiamento più profondo del tessuto epistemico dell’umanità. L’illusione di una conoscenza oggettiva, centralizzata e condivisa potrebbe frantumarsi sotto il peso di modelli che scrivono, riscrivono e sintetizzano senza un reale senso critico. L’AI è rapida, scalabile, brillante nel generare testo, ma è completamente priva di discernimento. Non fa domande, non dubita, non problematizza. Caratteristiche che sono, guarda caso, il cuore pulsante di ogni forma di pensiero enciclopedico serio.

Wikipedia, insomma, non sarà più la stessa. Forse è già cambiata. Il prossimo passo? Probabilmente sarà l’integrazione con plugin AI per utenti registrati, la possibilità di generare voci personalizzate in tempo reale, o di aggiornare in automatico le voci in base a flussi di dati in tempo reale. E a quel punto, che senso avrà ancora parlare di “editoria collaborativa”?