Una corte federale ha appena fatto quello che metà della Silicon Valley sperava e l’altra metà temeva: mettere ordine nella giungla legale dell’addestramento dei modelli linguistici, o quanto meno fingere di farlo. Il giudice Vince Chhabria, in un’ordinanza che molti definirebbero tecnicamente provvisoria ma culturalmente devastante, ha assolto Meta dalle accuse di tredici autori secondo cui l’azienda avrebbe usato illegalmente i loro libri per addestrare LLaMA. Ma non chiamatela vittoria: è più simile a un pareggio tecnico mascherato da gol al novantesimo.
L’argomento, che ormai scotta più delle GPU di Nvidia sotto carico, è sempre lo stesso: l’uso di materiali protetti da copyright per allenare modelli di intelligenza artificiale. Da mesi, se non anni, ci dibattiamo tra chi sostiene che i libri, gli articoli, i codici sorgente e i post di Reddit siano il nuovo petrolio dell’era AI e chi, con meno ironia, si ostina a chiamarli “opere creative degne di tutela legale”. Ed ecco che arriva un giudice, in un’aula che odora più di carta che di silicio, a dire: Meta ha usato i vostri libri, sì, ma non nel modo sbagliato — o meglio, voi non siete riusciti a spiegare perché sarebbe stato sbagliato.
L’aspetto più intrigante è che la decisione non assolve la Big Tech in quanto tale, ma punta il dito — con elegante disprezzo — verso la debolezza argomentativa dei querelanti. In parole povere: non è che Meta sia nel giusto, è che voi avete argomentato male. Uno schiaffo processuale che suona un po’ come: “Riprova, sarai più fortunato — ma con avvocati nuovi”. È la versione legale del “git commit —force”, solo che qui si parla di copyright, non di codice.
La difesa di Meta si è basata sul cavallo di battaglia del decennio: fair use AI. Un concetto tanto elastico quanto politicamente utile, capace di piegarsi a esigenze di innovazione, libertà accademica e scalabilità industriale, ma che resta, sotto la lente, una zona grigia nella quale convivono pirateria algoritmica e progresso scientifico. La corte ha deciso che non è importante se LLaMA possa rigenerare frammenti di testo riconoscibili, né se questo minacci il mercato delle licenze di contenuti: due argomenti, secondo il giudice, “chiaramente perdenti”.
Più interessante, e potenzialmente pericoloso per i giganti dell’AI, è ciò che il giudice non ha escluso: l’ipotesi che i modelli di linguaggio, crescendo su diete a base di contenuti originali, possano poi invadere il mercato con opere simili, creando una concorrenza algoritmica sleale. Ma questa argomentazione, pur avendo un fondo di verità strategica (e di allarme esistenziale per scrittori e creativi), è stata lasciata cadere per mancanza di prove solide. Non perché sbagliata, ma perché poco strutturata. In termini da CTO: idea giusta, pitch sbagliato.
Ed è qui che si apre il vaso di Pandora. Perché se la difesa di Meta regge solo grazie all’incompetenza della controparte, allora la prossima causa ben impostata potrebbe ribaltare tutto. L’industria legale americana funziona per precedenti, sì, ma ancora meglio per spettacolo. E nulla è più spettacolare di un colosso dell’intelligenza artificiale costretto a spiegare davanti a una giuria popolare perché ha ingurgitato un’intera biblioteca senza chiedere permesso. Spoiler: “perché tutti lo fanno” non sarà una risposta sufficiente.
Nel frattempo, a rincarare la dose, arriva anche la vittoria parallela di Anthropic, dove un altro giudice ha deciso che allenare un modello su libri legalmente acquistati è fair use. Che detto così suona ragionevole, finché non ti chiedi cosa voglia dire “legalmente acquistati” in un’era in cui una copia digitale può essere acquistata, duplicata e analizzata miliardi di volte in pochi secondi. È come dire che puoi comprare una mela e poi clonarla all’infinito: legale? Etico? Scalabile? Dipende da chi fai sedere in aula.
Non dimentichiamoci poi il messaggio subliminale che queste decisioni mandano: l’intelligenza artificiale può divorare contenuti purché lo faccia con stile e con buoni avvocati. Un po’ come se rubare in biblioteca fosse accettabile, a patto che tu sappia citare bene le fonti. O meglio: a patto che nessuno riesca a dimostrare che la tua fotocopiatrice ha infranto la legge.
Sotto la superficie legale si cela un problema ancora più profondo: non abbiamo ancora deciso cosa sia l’intelligenza artificiale in termini giuridici. È uno strumento? Un autore? Un imitatore? O una nuova entità semi-senziente capace di riscrivere l’economia dell’attenzione e dell’informazione? In assenza di risposte strutturate, ci affidiamo ai giudici, che però devono valutare casi tecnici con strumenti culturali spesso inadeguati. Il risultato è un ping-pong legale in cui ogni sentenza è una patch temporanea, non un aggiornamento del sistema.
Il fatto che queste decisioni emergano ora, in un contesto in cui la Generative AI è diventata mainstream, non è casuale. L’ecosistema dei modelli linguistici di grandi dimensioni si è nutrito per anni di un’ambiguità funzionale: quella per cui se nessuno si accorge che hai letto tutta Wikipedia, allora puoi usarla come vuoi. Ma ora che autori, editori e musicisti iniziano a collegare i puntini tra l’addestramento e la sostituzione, l’era del “noi innoviamo, voi tacete” sembra finita.
La narrativa del fair use AI è sempre più una coperta corta, che non riesce a scaldare né gli innovatori né i creativi. Serve una definizione più precisa, non solo legale ma culturale e commerciale, di cosa significhi davvero “usare” un contenuto per addestrare una macchina che poi scrive, parla e magari guadagna. Finché continueremo a usare la stessa parola — “uso” — per indicare sia la lettura che la riproduzione massiva, la confusione giuridica sarà la vera intelligenza artificiale: artificiosa, ma perfettamente razionale.
In fondo, questa guerra sul copyright intelligenza artificiale non è altro che una riedizione del vecchio conflitto tra potere computazionale e proprietà intellettuale. Solo che stavolta, al posto delle fotocopiatrici e dei CD masterizzati, ci sono GPU che masticano parole a milioni. E mentre Meta, Anthropic e OpenAI continuano a riempirsi i data center di contenuti che nessuno ha autorizzato, la vera domanda resta sospesa come una variabile senza valore: possiamo davvero costruire il futuro con ciò che non ci appartiene?
Il giudice Chhabria ha solo detto che questi querelanti non avevano gli strumenti per fermare il treno. Ma nessuno ha detto che il treno sia sulla rotaia giusta.