Nel grande teatro delle illusioni legislative europee, l’intelligenza artificiale generativa è entrata in scena come un attore muto che però sta riscrivendo il copione. Senza firmare. Senza pagare il biglietto. E senza chiedere permesso. È la nuova frontiera della produzione creativa, alimentata da algoritmi affamati e dataset giganteschi spesso caricati fino all’orlo di opere protette dal diritto d’autore. Tutto inizia da una domanda apparentemente semplice: è legale usare contenuti protetti per addestrare modelli di intelligenza artificiale generativa? Spoiler: la risposta è un inno al caos normativo europeo.Il documento appena pubblicato dal Parlamento Europeo, intitolato “Generative AI and Copyright – Training, Creation, Regulation”, affronta con rigore chirurgico la schizofrenia del sistema giuridico europeo davanti all’onda lunga dell’AI. L’analisi è implacabile: le eccezioni previste dalla direttiva sul copyright nel mercato unico digitale (CDSM) non sono progettate per l’uso massiccio che i modelli generativi fanno dei contenuti. Il cuore del problema si chiama text and data mining, o TDM per gli addetti ai lavori. Articoli 3 e 4 della direttiva: da una parte consentono il mining per scopi scientifici, dall’altra (più generosamente) permettono a chiunque di estrarre dati… purché l’autore non abbia “optato out”. In teoria. Perché nella pratica, questa clausola di esclusione è uno dei più grandi esercizi di ipocrisia regolamentare dell’ultimo decennio.
Qualcuno potrebbe domandarsi: ma davvero i giganti dell’AI hanno letto tutte quelle poesie, romanzi, foto, spartiti e saggi accademici con il consenso degli autori? Certo che no. Hanno letto tutto ciò che era leggibile. Inclusi i contenuti protetti. L’unico filtro era un file robots.txt, pensato per fermare i crawler di Google, non per salvare la dignità degli artisti europei. La differenza tra una scansione di metadati per ricerca scientifica e l’addestramento massivo di un modello come ChatGPT è abissale. Ma il diritto non lo ha ancora capito. O fa finta di non capirlo.Il problema non è solo normativo, è filosofico. L’intelligenza artificiale generativa e diritto d’autore sono due pianeti che orbitano attorno a sole diversi: uno fondato sulla riproduzione statistica, l’altro sulla creazione individuale. L’output di un modello non è originale in senso umano, ma neanche neutrale in senso giuridico. Eppure genera valore. Enorme valore e questo valore viene sottratto, centesimo dopo centesimo, a chi ha alimentato il motore. In assenza di trasparenza, tracciabilità e remunerazione, la macchina della creatività rischia di diventare un frullatore di cultura che restituisce solo pastoni predittivi senza anima. L’articolo del Parlamento è chiaro: l’assenza di un sistema di remunerazione legale per l’uso delle opere nei dataset sta creando un “value gap” pericolosissimo.
La proposta? Una svolta obbligatoria verso l’autorizzazione preventiva. Addio sogni libertari dell’open AI. Il legislatore europeo guarda sempre più con favore a un modello basato sull’opt-in, affiancato da registri machine-readable per la concessione delle licenze. L’idea è semplice ma rivoluzionaria: se vuoi addestrare il tuo modello sulla cultura europea, devi prima chiedere permesso. E pagare. Altrimenti, resta pure fuori.Naturalmente, si leva subito il coro di chi teme per l’innovazione. “Così uccidete le startup!”, dicono. Ma l’ironia è che le uniche startup che sembrano beneficiare della deregulation sono quelle finanziate da fondi da miliardi, che fanno shopping di contenuti senza passare dalla cassa. Gli autori europei sono gli unici a non aver firmato nessun contratto, ma i loro lavori sono nei prompt, nelle risposte, nei pattern generati. Tutto il contrario di un “fair use”. Qui siamo al limite della espropriazione creativa.Un altro punto esplosivo è la questione della protezione delle opere generate. Lo studio lo dice senza giri di parole: un output generato interamente da una macchina, senza contributo umano significativo, non dovrebbe essere protetto dal diritto d’autore. Punto e meno male. Altrimenti, le IA comincerebbero a firmare romanzi, registrare brevetti e magari partecipare a Biennali d’arte contemporanea. Il rischio? Creare un nuovo tipo di “copyright zombie”, senza anima né paternità, che infesta il mercato culturale e lo soffoca.
Ma il vero problema è sistemico: chi ha il potere economico per costruire e addestrare questi modelli ha anche il potere di determinare cosa viene prodotto, riprodotto, consigliato, diffuso. Se le AI sono allenate su contenuti selezionati da cinque piattaforme, otterremo un ecosistema culturale standardizzato, piatto, omogeneo. Altro che rinascimento digitale: qui si rischia un monocromo algoritmico che disintegra la diversità culturale europea in nome dell’efficienza computazionale.
Non si tratta solo di soldi. Il copyright è, prima di tutto, un sistema di riconoscimento. Di paternità. Di rispetto. Senza un tracciamento dei contenuti usati nei dataset, gli autori vengono cancellati non solo dai compensi, ma dalla storia. Le AI generano contenuti “in stile” Kafka, Bach, McCarthy o Eco. Ma nessuno dice da dove arriva quello stile. Nessuno restituisce nulla a chi lo ha forgiato. È una forma di plagio subliminale travestito da neutralità statistica.Serve un intervento deciso. Il Parlamento propone una remunerazione statutaria, con modelli flessibili: licenze collettive, tasse sugli output AI, audit dei dataset, watermark obbligatori, tracciabilità end-to-end. Un sistema multilivello che dia agli autori voce, visibilità e compensi e a chi sviluppa i modelli, delle regole chiare. La vera innovazione non ha paura delle regole, la teme solo chi costruisce rendite parassitarie sulla confusione normativa.
Nella migliore delle ipotesi, l’Europa diventa il laboratorio globale per una simbiosi sostenibile tra intelligenza artificiale e creatività umana. Nella peggiore, si trasforma in un bacino di contenuti da cui estrarre valore per piattaforme americane e cinesi, lasciando solo le briciole agli artisti. La scelta è davanti a noi e come sempre, chi ha il controllo del linguaggio umano o artificiale ha il controllo della realtà.Dunque, sì, è tempo di riformare.
Non per frenare l’AI, ma per darle confini etici e legali. Perché un modello predittivo senza limiti è come un algoritmo di trading che gioca con l’arte al posto della borsa: può funzionare, ma il prezzo lo pagano i creatori e stavolta, la bancarotta è culturale.