Quando una rivoluzione tecnologica comincia a dipendere da ciò che pensa un giudice di Manhattan, significa che qualcosa è andato storto. Oppure, molto semplicemente, che stiamo entrando nella seconda fase dell’AI economy: quella in cui la creatività smette di essere un combustibile gratuito e diventa oggetto di una causa civile. O, per dirla con le parole del Wall Street Journal, “The legal fight over AI is just getting started — and it will shape the entire industry”. Sottotitolo implicito: le big tech sono già nel mirino, e l’odore di sangue ha attirato avvocati da Los Angeles a Bruxelles.

Negli ultimi giorni, due sentenze americane — una contro Meta, l’altra contro Anthropic — hanno aggiunto benzina al fuoco. Entrambe le aziende sono accusate di aver usato libri coperti da copyright per addestrare i loro modelli linguistici. Ed entrambe, a sorpresa, hanno ottenuto una vittoria parziale. I giudici, sembrano aver dato ragione agli imputati. Ma con l’espressione tipica di chi spera che arrivi presto un nuovo querelante, più bravo e più convincente. Perché la sensazione è che questo round lo abbiano vinto gli ingegneri. Ma la guerra legale è appena cominciata. E chi crede che l’output dell’AI sia “magia neutra” non ha mai letto una sentenza sul fair use.

Il punto centrale — e lo snodo semantico più esplosivo per Google Search Generative Experience — è proprio lì: cosa significa fair use nell’era delle intelligenze artificiali? È ancora un concetto legato alla parodia e all’informazione libera, o si sta trasformando in una scappatoia legale per l’appropriazione massiva di contenuti? La differenza tra “acquisto di un libro” e “scraping pirata da repository ombra” è sottile, ma giuridicamente devastante. Se non la sistemiamo adesso, ci penseranno i tribunali. Con tempi e modalità che il settore tech fatica a comprendere.

Lo spettro evocato da molti è quello di Napster. Un’intera industria — la musica — fu smontata da un’innovazione più rapida delle norme. E quando le major si svegliarono, era troppo tardi. Oggi ci siamo dentro di nuovo. Solo che stavolta non si tratta di mp3, ma di modelli multimodali capaci di replicare la voce di Scarlett Johansson, imitare lo stile di Murakami o rigenerare intere scene Disney. E chi pensa che gli autori si faranno da parte “per il bene della scienza” dovrebbe dare un’occhiata alla nuova coalizione tra Hollywood, le major editoriali e le associazioni degli artisti visivi. C’è un solo punto su cui sono d’accordo: gli LLM sono addestrati su furto.

In questo clima, Meta ha ottenuto un respingimento preliminare delle accuse. Ma la corte ha anche ricordato che, pur non potendo provare il danno diretto, i querelanti avevano sollevato una questione seria: l’uso massivo e indiscriminato di contenuti protetti per addestrare sistemi a fini commerciali. The Financial Times ha parlato di “legal gray zone rapidly turning into a battlefield”. E non è un caso se, negli stessi giorni, l’EU AI Act si è risvegliato con una nuova clausola: gli sviluppatori dovranno pubblicare gli elenchi delle fonti usate per il training. Addio black box, benvenuto discovery.

Il caso Anthropic è ancora più emblematico. Gli avvocati degli autori hanno mostrato come Claude fosse in grado di rigenerare porzioni intere di testi da libri pubblicati. E il giudice ha riconosciuto la gravità del fatto. Ma ha anche chiesto prove più solide, più mirate, meno retoriche. Un assist perfetto per una nuova ondata di cause collettive, magari più furbe. Perché, diciamolo, finora gli artisti hanno litigato come poeti. Ma gli avvocati stanno arrivando. E sanno scrivere in codice binario.

Nel frattempo, in questa valle legale di lacrime, c’è chi guarda altrove. Tesla ha iniziato il rollout dei suoi robotaxi in pieno vuoto normativo. E mentre le city americane si interrogano su cosa sia un “autista responsabile” quando il volante non c’è, Elon Musk come sempre finge che tutto sia già risolto. Spoiler: non lo è. La cronaca dei primi incidenti lo conferma. Il robotaxi è un avatar giuridico perfetto: non guida, ma trasporta. Non è umano, ma decide. Non è responsabile, ma causa danni. Sarà interessante vedere come il primo incidente mortale verrà trattato. Come “caso umano”? O come bug di sistema?

In parallelo, il cosiddetto Trump Phone ha fatto la sua comparsa. Prometteva di essere un’alternativa nazionale, orgogliosamente americana. Ma ora scopriamo che molti componenti vengono prodotti altrove. La sovranità digitale, a quanto pare, è un concetto fluido. Proprio come il confine tra contenuto creato e contenuto rigenerato. In questo scenario, ogni prodotto digitale è anche un contenuto legale in potenza. E ogni AI è un rischio latente di class action.

Tornando all’intelligenza artificiale, la preoccupazione vera — come ha detto Adi Robertson — non è solo il copyright. È l’effetto domino. Se milioni di contenuti spazzatura vengono generati ogni giorno e ridistribuiti nella rete, quale sarà la qualità dei dati usati nei prossimi modelli? Addestrare GPT-6 su GPT-4 sarà l’equivalente di fotocopiare una fotocopia. Il rumore supererà il segnale. L’intelligenza diventerà entropia.

Ecco perché molti giudici, pur non ancora pronti a condannare, sembrano voler lanciare un messaggio: regolatevi, o lo faremo noi. Una frase che dovrebbe far tremare più di una board di investitori, abituata a muoversi nel solito paradosso tecnologico: velocità assoluta, responsabilità differita.

Nel frattempo, la Blue Screen of Death non sarà più blu. Microsoft ha deciso di cambiarne il colore dopo 40 anni. Un gesto simbolico perfetto: anche l’errore ha bisogno di un rebranding. Ma l’errore più grande — pensare che l’AI sia al di sopra del diritto — non basterà cambiarlo di colore. Va corretto alla radice. Prima che sia il sistema legale a fare force quit.