Una parola ricorre sempre più spesso quando si parla di libri, giornali e algoritmi: Far West. Non perché l’intelligenza artificiale cavalchi al tramonto con il cappello da cowboy ma perché il confine tra innovazione e illegalità, tra utilizzo lecito e sfruttamento opaco dei contenuti, appare, per molti versi ancora incerto. E nel frattempo l’editoria fa i conti con numeri che non sono affatto romanzeschi.

Rimaniamo in Italia: la quarta indagine Ipsos Doxa commissionata dall’Associazione Italiana Editori e presentata qualche giorno fa nel convegno organizzato insieme alla Federazione Italiana Editori Giornali parla chiaro. La pirateria libraria vale il 30% del mercato, pari a 722 milioni di euro nel 2025, in crescita rispetto ai 687 milioni di due anni fa. Se si considera l’intero indotto la perdita per il sistema Paese arriva a 1,95 miliardi di euro e 313 milioni di euro di mancate entrate fiscali. I posti di lavoro che l’indagine ritiene siano stati colpiti da questa situazione sono 4.500 nel solo comparto libro e 11.500 includendo l’indotto. Sono, in ogni caso numeri che spiegano perché il tema non sia solo una disputa tra tecnici del copyright ma, ancor prima, una questione industriale e occupazionale.

In questo scenario, di per se già complesso, irrompe poi l’intelligenza artificiale generativa. Beninteso, non come colpevole unico ma come acceleratore di dinamiche già in atto. Secondo l’indagine, i riassunti generati dall’AI sono utilizzati dal 12% della popolazione sopra i 15 anni per i libri di narrativa, dal 58% degli studenti universitari e dal 22% dei liberi professionisti. Le rielaborazioni ottenute tramite AI vengono conservate nel 45% dei casi, percentuale che sale al 60% tra gli universitari e spesso condivise via web o messaggistica. Parallelamente il 36% della popolazione sopra i 15 anni ammette di leggere copie pirata di libri, quota che raggiunge il 76% tra gli studenti universitari.

Questi dati però vanno letti con lucidità. Premesso che, ben prima dell’avvento del web la corsa allo scambio di sunti, copie o fotocopie di libri di testo universitari ma anche di narrativa se parliamo di letteratura italiana era una prassi ampiamente adottata da studenti delle superiori e universitari, l’intelligenza artificiale non è di per se sinonimo di pirateria. Questo va detto con chiarezza, altrimenti rischiamo di far confusione. È piuttosto una tecnologia che può migliorare la produttività editoriale, supportare il lavoro giornalistico, facilitare la traduzione, l’analisi dei dati, la personalizzazione dei contenuti. Può aiutare un editore a comprendere meglio il proprio pubblico, un giornalista a elaborare grandi moli di informazioni, uno studente a orientarsi in testi complessi. Da questo punto di vista, l’AI in sé non sottrae valore.

Il problema semmai nasce quando si sovrappongono due piani. Da un lato l’uso improprio di contenuti protetti dal diritto d’autore per addestrare modelli di AI attraverso dataset costruiti in modo poco trasparente, talvolta attingendo a intere collezioni di libri disponibili su archivi pirata come Anna’s Archive. Dall’altro la pirateria tradizionale che rende disponibili gratuitamente libri, quotidiani e banche dati, drenando risorse all’industria culturale. Sono fenomeni si interconnessi, ma ben distinti. Nel primo caso si discute di data governance, trasparenza e remunerazione degli autori. Nel secondo si parla di violazione diretta e consapevole del copyright.

Quando il presidente dell’AIE Innocenzo Cipolletta sottolinea la necessità di informare i cittadini sui rischi di un utilizzo improprio degli algoritmi dice una cosa corretta atteso che, sono sempre dati dell’indagine, il 34% della popolazione sopra i 15 anni sa che caricare su sistemi di AI materiali coperti da diritto d’autore senza autorizzazione è illegale. C’è ancora l’idea diffusa che scaricare un libro o generare un riassunto integrale non sia un vero danno perché in fondo lo fanno tutti.

Ora, dal punto di vista economico il nodo è chiaro. L’editoria è un’industria ad alta intensità di capitale intellettuale. Se un terzo del mercato viene eroso dalla pirateria e da utilizzi non autorizzati, la capacità di investire in nuovi autori, innovazione digitale, qualità giornalistica e formazione si riduce. In un ecosistema già fragile, l’AI può diventare o un moltiplicatore di efficienza o un acceleratore di saccheggio.

Ma la strategia per risolvere la questione non può essere un generico atto d’accusa contro l’intelligenza artificiale. Sarebbe miope e controproducente. Occorre invece un doppio binario. Primo, rafforzare gli strumenti di contrasto alla pirateria tradizionale con interventi rapidi su DNS e IP, cooperazione con piattaforme di messaggistica e campagne educative per costruire una cultura della legalità digitale. Secondo, ed è qui il vero nodo della questione, definire regole chiare per l’addestramento dei modelli di AI, garantendo trasparenza sulle fonti dei dati e meccanismi di remunerazione equa per autori ed editori.

L’AI Act europeo offre una cornice ma la sua applicazione concreta richiederà un dialogo costante tra istituzioni, imprese tecnologiche e filiera editoriale. L’obiettivo non è frenare l’innovazione ma evitare che diventi un alibi per l’appropriazione sistematica di contenuti protetti, soprattutto quando si tratta delle grandi piattaforme tech.

L’editoria italiana si trova davanti a una scelta strategica. Difendere il passato senza innovare significherebbe perdere competitività. Con quali risultati lo abbiamo visto con la prima rivoluzione del web tra la fine degli anni ’90 e l’inizio del duemila. L’ostinazione da parte degli editori tutti a difendere i vecchi meccanismi economici fondati sulla carta e la miopia nel non riuscire a leggere il cambiamento che le dinamiche di internet avrebbero portato nelle abitudini dei lettori è stata la principale causa dell’effetto disintermediazione a cui gli editori sono andati incontro a favore delle grandi piattaforme.

D’altra parte, occorre riconoscere che abbracciare l’AI senza regole significherebbe erodere le fondamenta economiche della produzione culturale.

La via di mezzo è più complessa ma anche più solida: integrare l’intelligenza artificiale nei processi editoriali, valorizzarne le potenzialità, negoziare accordi di licensing con i provider tecnologici, investire in alfabetizzazione digitale e nel contempo colpire con decisione chi alimenta il mercato illegale.

Il Far West digitale, per usare un’espressione cara ad Andrea Riffeser Monti, presidente della Fieg (Federazione Italiana Editori Giornali) può essere governato, ma richiede istituzioni rapide, imprese responsabili e cittadini consapevoli.

Soprattutto occorre capire che l’intelligenza artificiale non è il nemico dell’editoria. È una tecnologia e scagliarsi contro una tecnologia non solo non ha senso, ma è profondamente sbagliato: la storia dimostra che il progresso non si arresta demonizzandolo. Il punto, semmai, è un altro. È stabilire regole chiare per le grandi aziende dell’AI, affinché riconoscano e remunerino in modo equo editori e autori per l’utilizzo dei loro contenuti nei modelli di addestramento. Perché il valore della creatività, del lavoro intellettuale e dell’informazione di qualità non può essere considerato un giacimento liberamente estraibile dalle piattaforme globali, ma una risorsa economica e culturale da proteggere. Solo così l’innovazione non sarà percepita come una minaccia, ma come un nuovo capitolo della stessa storia: quella di una cultura che evolve senza rinnegare se stessa e senza impoverire chi la produce.