Il copyright non è mai stato una legge romantica. È sempre stato un compromesso brutale tra denaro, potere e creatività. Oggi però, con l’intelligenza artificiale che divora libri, musica, fotografie e archivi giornalistici a una velocità che nessun essere umano può anche solo concepire, quel compromesso scricchiola. Negli Stati Uniti oltre cinquanta cause per violazione del copyright sono già arrivate davanti ai giudici, tutte con la stessa accusa di fondo: le Big Tech hanno costruito modelli miliardari usando opere protette senza chiedere permesso a nessuno. Non un dettaglio tecnico. Una faglia strutturale.

Il punto interessante non è solo giuridico. È filosofico, economico e culturale. Il copyright nasce per incentivare la produzione artistica garantendo un ritorno economico agli autori, ma allo stesso tempo deve evitare di soffocare la circolazione delle idee. Questo equilibrio, già fragile nell’era analogica, nell’era digitale è diventato instabile come una centrale nucleare progettata per funzionare a carbone. L’intelligenza artificiale non si limita a copiare. Impara, rimescola, sintetizza. O almeno così sostengono le aziende che la costruiscono.

Negli Stati Uniti la giustificazione ultima del copyright non è morale, ma utilitaristica. La Costituzione parla chiaro quando afferma che il diritto esclusivo su opere e invenzioni serve a promuovere il progresso della scienza e delle arti utili. Tradotto in linguaggio moderno, il copyright esiste finché produce più innovazione di quanta ne blocchi. Il problema è che nessuno aveva previsto modelli linguistici capaci di assorbire milioni di libri in poche settimane e restituire testi nuovi, plausibili, spesso disturbantemente simili allo stile di chi li ha scritti.

Le cause intentate contro Meta, Anthropic, OpenAI e altri seguono tutte lo stesso schema. Gli autori sostengono che le loro opere siano state copiate senza autorizzazione per addestrare sistemi che ora competono direttamente con loro. Le aziende rispondono invocando il fair use, la clausola elastica che permette l’uso non autorizzato di opere protette in determinate circostanze. Insegnamento, critica, ricerca. Una zona grigia che esiste proprio per evitare che il copyright diventi una camicia di forza.

Il fair use negli Stati Uniti si basa su quattro fattori. Lo scopo e il carattere dell’uso, inclusa la sua natura commerciale e il grado di trasformazione. La natura dell’opera originale, con le opere creative più protette dei contenuti fattuali. La quantità e sostanzialità della parte utilizzata. L’impatto sul mercato potenziale dell’opera. Nessuno di questi fattori è decisivo da solo. Tutti insieme formano una specie di test di ragionevolezza affidato alla discrezionalità del giudice.

Ed è qui che l’intelligenza artificiale ha iniziato a far saltare il banco. Nei casi Bartz v. Anthropic e Kadrey v. Meta, i giudici hanno in larga parte dato ragione alle aziende tecnologiche. L’argomento centrale è stato quello della trasformatività. I modelli linguistici non memorizzerebbero le opere, ma estrarrebbero pattern statistici per generare testi nuovi. Il giudice William Alsup ha definito l’output di Claude “spettacolarmente trasformativo”. Un’espressione che farà storia, nel bene o nel male.

Alsup ha spinto ancora oltre l’analogia, paragonando l’addestramento di un LLM al processo di apprendimento umano. Come un lettore che aspira a diventare scrittore, il modello legge per creare qualcosa di diverso, non per copiare. In questa visione, il potenziale danno al mercato degli autori originali diventa quasi irrilevante. Sarebbe come sostenere che insegnare a scrivere ai bambini danneggi il mercato editoriale perché potrebbero diventare scrittori.

Il ragionamento è elegante, ma pericoloso. Funziona solo se si accetta senza riserve l’idea che l’IA apprenda come un essere umano. Peccato che non sia così. Un essere umano non può leggere l’intera produzione letteraria del Novecento in una settimana. Non può rigenerare stili su richiesta industriale. Non può scalare la creatività. L’intelligenza artificiale sì. Ed è proprio la scala a rendere fragile l’analogia.

Nel caso Anthropic, il giudice ha comunque tracciato una linea. I testi piratati non rientrano nel fair use. Non è un dettaglio marginale. Significa che il modo in cui i dati vengono acquisiti conta, eccome. Non tutto può essere giustificato con la trasformatività. Il successivo accordo transattivo da 1,5 miliardi di dollari con gli autori è la prova che anche le aziende più sofisticate sanno di camminare su terreno instabile.

Il vero problema però non è se una singola causa venga vinta o persa. È che il copyright è stato progettato per un mondo in cui copiare era costoso e lento. Nell’era dell’IA copiare è istantaneo e invisibile. Il training di un modello richiede copie temporanee, riproduzioni integrali, manipolazioni massive di opere protette. Tutto ciò avviene prima ancora che esista un output. Il diritto d’autore tradizionale fatica persino a descrivere questo processo, figuriamoci a regolarlo.

C’è poi la questione dell’output. Se un modello produce un testo che richiama in modo riconoscibile lo stile di un autore vivente, siamo di fronte a una violazione. Se invece genera qualcosa di solo vagamente simile, siamo nel regno dell’ispirazione. Il confine è sottile, soggettivo, e tecnicamente difficile da dimostrare. Le aziende sostengono che i loro modelli non rigurgitano contenuti. Gli autori rispondono che la competizione è reale, anche senza copia letterale.

Il rischio sistemico è evidente. Se il copyright viene interpretato in modo troppo permissivo, si crea un incentivo perverso a saccheggiare l’intero patrimonio culturale per costruire modelli che sostituiscono chi quel patrimonio lo ha creato. Se invece viene applicato in modo rigido, si blocca una delle tecnologie più promettenti degli ultimi decenni. La storia del diritto d’autore è sempre stata una storia di aggiustamenti successivi, mai di soluzioni definitive.

Alcuni studiosi sostengono che l’intelligenza artificiale non stia solo creando nuovi problemi tecnici, ma stia erodendo le fondamenta concettuali del copyright. L’idea di autore, di originalità, di opera come entità stabile diventa sfocata quando la produzione culturale è statistica, probabilistica, derivativa per definizione. Non è un caso che le controversie sul copyright finiscano sempre per intrecciarsi con domande su cosa significhi creare, pensare, esprimersi.

Il paradosso è che il copyright, nato per promuovere la creatività, rischia ora di essere percepito come un ostacolo alla stessa. Ma l’alternativa, un mondo in cui tutto è addestramento gratuito per pochi attori dominanti, non è più creativa. È più centralizzata, più opaca, più povera di voci. Come spesso accade, il dibattito viene raccontato come uno scontro tra artisti nostalgici e tecnologi illuminati. In realtà è una guerra di potere economico mascherata da disputa filosofica.

La domanda finale non è se il copyright possa sopravvivere all’era dell’intelligenza artificiale. È se la società abbia il coraggio di aggiornarlo senza distruggerne la funzione. Serviranno nuove licenze, nuovi meccanismi di compensazione, forse nuove categorie giuridiche. Servirà soprattutto smettere di fingere che addestrare un modello con milioni di opere sia equivalente a leggere un libro in biblioteca.

Il copyright ha sempre saputo adattarsi, dalla stampa alla fotografia, dalla radio a Internet. Ma ogni adattamento ha richiesto conflitti, cause, compromessi dolorosi. L’intelligenza artificiale non farà eccezione. Chi pensa che basti invocare il fair use per chiudere la questione sta confondendo una vittoria tattica in tribunale con una soluzione strategica. E la storia, di solito, non è gentile con questo tipo di miopia.