Nel mondo dell’intelligenza artificiale, dove i modelli linguistici di grandi dimensioni sono ormai protagonisti di ogni conversazione tecnologica, le cause legali per copyright sono quasi inevitabili. Scrittori, autori e creativi arrabbiati sostengono con fervore che i diritti d’autore dovrebbero offrire protezione contro l’uso delle loro opere per addestrare AI che potrebbero minacciare il loro futuro professionale.

Il caso più noto è quello del New York Times contro OpenAI e Microsoft, ma un procedimento meno mediatico, Bartz contro Anthropic PBC, potrebbe essere il primo a generare una sentenza sostanziale, con danni potenziali per miliardi di dollari. Anthropic, pur non avendo le tasche profonde dei colossi del settore, dichiara che un processo potrebbe causare “danni irreparabili”, un’affermazione tanto drammatica quanto intrigante per chi guarda il panorama dall’esterno: se il tuo business collasserebbe senza sfruttare materiale protetto da copyright, allora che tipo di business stai costruendo?

Il caso, in termini legali, è relativamente semplice. Un gruppo di autori ha accusato Anthropic di violare i loro diritti d’autore sostenendo che l’uso dei libri per addestrare modelli AI sia intrinsecamente illecito, anche se le copie erano state acquistate e digitalizzate correttamente. Questo argomento è stato inizialmente respinto. Anthropic ha spinto per un giudizio sommario, un procedimento che permette a un giudice di decidere senza passare per la giuria, assumendo che i fatti favoriscano l’altra parte. Sorprendentemente, nonostante questo approccio “pericoloso” per l’azienda, il giudice William Alsup ha dato ragione ad Anthropic nel caso dei libri regolarmente acquistati: comprare, scansionare e digitalizzare un libro per la formazione di AI rientra nel concetto di “fair use”.

Il giudice ha sottolineato che i modelli linguistici apprendono dai testi per generare qualcosa di nuovo, distinto dall’originale. “Gli autori non possono escludere nessuno dall’uso delle loro opere per apprendere o creare,” ha scritto Alsup. L’argomento secondo cui ciò che è permesso agli esseri umani non dovrebbe esserlo per le AI è stato respinto con decisione. In altre parole, leggere e imparare dai testi per produrre contenuti nuovi è legittimo, anche per una macchina.

Il punto controverso, e potenzialmente esplosivo, riguarda però la fonte di alcuni libri. Sebbene Anthropic abbia poi acquistato copie legittime, inizialmente la società aveva scaricato milioni di libri piratati da dataset come Books3 e LibGen. Alsup ha osservato con tono severo che “potevano acquistare i libri, ma hanno preferito rubarli per evitare complicazioni legali o operative”. Questo comportamento, almeno per quanto riguarda la pirateria, sarà valutato da una giuria per determinare danni e responsabilità.

Anthropic cerca ora di ritardare il processo previsto per dicembre, appellandosi al giudizio sommario e chiedendo la sospensione del caso, ma Alsup ha respinto la richiesta con durezza, sottolineando che un’azienda non può ottenere una sospensione preventiva basata su una richiesta generica di “danno irreparabile”. Alcuni esperti legali, come il Professor Edward Lee, condividono il dubbio: i danni reputazionali o la semplice notifica agli autori non costituiscono, secondo loro, motivi sufficienti per bloccare il procedimento.

Tuttavia, i possibili danni economici sono colossali. Lee ha chiesto ad Anthropic di modellare con la propria AI, Claude, le possibili perdite: la simulazione suggerisce un 95% di probabilità di danni oltre 1 miliardo di dollari e un 59% di probabilità di superare i 10 miliardi. Un colpo potenzialmente letale per una compagnia che ha raccolto meno di 15 miliardi e prevede di bruciarne circa 3 all’anno per le operazioni. La posta in gioco finanziaria evidenzia quanto la gestione dei copyright AI possa diventare un rischio esistenziale, non per la tecnologia in sé, ma per le pratiche iniziali di acquisizione dei dati.

Il paradosso è evidente: la formazione di modelli linguistici su contenuti acquistati e digitalizzati è legale e può sopravvivere a controversie legali, mentre l’uso di materiale piratato può trasformare il successo tecnologico in un disastro economico. In un mondo ideale, i confini tra fair use e pirateria AI dovrebbero essere chiari, ma la realtà legale resta complessa e soggetta all’interpretazione dei tribunali.

Un dettaglio intrigante riguarda la risposta strategica di Anthropic: poco dopo l’ordine del giudice di procedere al processo, Amodei ha annunciato che l’azienda sarebbe stata disposta ad accettare investimenti da stati del Golfo, un cambio di rotta notevole considerando il rifiuto di finanziamenti sauditi appena un anno prima. Ironia della sorte, la necessità di reperire liquidità per sopravvivere al rischio legale sembra aver superato le ideologie originarie sul controllo democratico dell’AI.

Se il caso dovesse andare male per Anthropic, il danno non sarebbe tanto tecnologico quanto reputazionale e finanziario. Altri laboratori AI potrebbero trovarsi nella stessa posizione: l’uso di materiale piratato non è esclusiva di Anthropic, quindi cause simili potrebbero provocare danni colossali su scala industriale. Come ha osservato Alsup, se Anthropic dovesse perdere in modo drammatico, sarà perché “quello che ha fatto di sbagliato è stato altrettanto grande”.

La vicenda sottolinea un punto chiave per l’intero settore dei modelli linguistici: i confini tra innovazione, copyright e responsabilità legale sono sottili e insidiosi. La tecnologia permette di trasformare testi in nuovi contenuti con efficienza sorprendente, ma l’attenzione al rispetto dei diritti d’autore diventa un obbligo strategico. Chi ignora queste dinamiche rischia di subire danni che vanno ben oltre la reputazione, minacciando la stessa esistenza aziendale.

Il caso Bartz vs Anthropic non è solo un avvertimento legale, ma un segnale per l’intera industria: la formazione dei modelli linguistici su materiale protetto non è intrinsecamente illegale, ma la scorciatoia della pirateria può trasformarsi rapidamente in un boomerang da miliardi di dollari. L’ironia finale è quasi poetica: il futuro della AI non è minacciato dalla legge sul copyright, ma dall’etica e dalla disciplina imprenditoriale delle aziende stesse.


Materiale per una eventuale Tesi Legale:

Bartz v. Anthropic PBC (3:24-cv-05417) District Court, N.D. California

https://www.courtlistener.com/docket/69058235/bartz-v-anthropic-pbc/?utm_source=substack&utm_medium=email

Reuters: https://www.reuters.com/legal/litigation/judge-explains-order-new-york-times-openai-copyright-case-2025-04-04/?utm_source=substack&utm_medium=email

https://www.reuters.com/technology/anthropic-projects-soaring-growth-345-billion-2027-revenue-information-reports-2025-02-13/?utm_source=substack&utm_medium=email

Source: https://chatgptiseatingtheworld.com/2025/07/17/anthropic-faces-potential-business-ending-liability-in-statutory-damages-after-judge-alsup-certifies-class-action-by-bartz/?utm_source=substack&utm_medium=email

https://www.obsolete.pub/p/anthropic-faces-potentially-business?hide_intro_popup=true&utm_source=substack&utm_medium=email

https://www.theatlantic.com/technology/archive/2025/03/libgen-meta-openai/682093/?utm_source=substack&utm_medium=email