Microsoft è finita nuovamente sotto tiro, questa volta da un plotone d’esecuzione letterario. Un gruppo di autori ha intentato causa contro il colosso di Redmond, accusandolo di aver addestrato il suo modello di intelligenza artificiale, dal nome cinematografico Megatron, su un archivio di quasi 200.000 libri piratati. Sì, avete letto bene: non si parla di licenze opache o di ambiguità semantica nei dati web, ma di un database esplicitamente illegale. Eppure, mentre le corti USA hanno recentemente respinto casi simili contro Meta e Anthropic, c’è chi spera che la terza volta sia quella buona.

La questione è tutt’altro che banale: il dataset in questione — noto come Books3 — è stato ampiamente utilizzato per addestrare modelli linguistici di nuova generazione, con una precisione e una profondità stilistica che difficilmente derivano da manuali open source. Il problema? Books3 è una collezione ottenuta in modo illecito, un concentrato di narrativa contemporanea, saggistica, opere di culto e bestseller, tutto usato senza alcun permesso né compenso. Una rapina culturale algoritmica in piena regola.

Il punto centrale dell’azione legale non è solo il furto di contenuto, ma l’implicito smantellamento del concetto stesso di diritto d’autore nell’era dell’IA generativa. Se un modello riesce a scrivere “alla maniera di” Stephen King, Margaret Atwood o George R.R. Martin, perché è stato immerso in migliaia di pagine dei loro lavori, allora siamo davanti a un caso di appropriazione stilistica assistita da calcolo. Non più imitazione, ma reincarnazione digitale senza consenso.

Il paradosso è che la legge sul copyright non è pronta per questo. I giudici USA, nella loro prudenza, tendono ad applicare la dottrina del fair use come se si trattasse ancora di cassette VHS e parodie in stile Saturday Night Live. Ma qui si parla di modelli che apprendono interi universi narrativi, li destrutturano, li rimappano, e poi li rigurgitano su richiesta in una frazione di secondo. “Generare” un testo che suona come Jonathan Franzen, dopo aver digerito migliaia di sue frasi senza permesso, è davvero uso lecito?

Microsoft ha evitato commenti diretti sulla nuova causa, probabilmente attendendo il solito scudo legale del “non abbiamo addestrato direttamente su quel dataset” oppure “è stato il nostro partner X”. Un po’ come scaricare la colpa sul cameriere per un piatto avariato, pur avendolo ordinato personalmente.

Il Megatron in questione, sia chiaro, non è un nome inventato dai giornalisti in vena di ironia. È uno dei modelli avanzati sviluppati congiuntamente da Microsoft e Nvidia, e fa parte di una corsa senza freni verso modelli sempre più capaci, sempre più grandi e, a quanto pare, sempre più avidi di contenuti non autorizzati. Lo scenario è quasi mitologico: divinità digitali cresciute cibandosi di scritti rubati agli umani, pronti ora a rimpiazzarli sul mercato editoriale.

Le grandi aziende tech si stanno muovendo come colonizzatori di un’epoca narrativa ancora senza leggi. Dopo aver devastato la pubblicità online e sussunto l’informazione giornalistica, ora è il turno della letteratura. Il concetto stesso di “voce” di un autore rischia di diventare una feature parametrica. Hai bisogno di un saggio breve in stile Zadie Smith? Nessun problema. Basta chiedere. È gratuito, immediato, e non genera royalties. Perché pagare l’artista, se puoi semplicemente modellarlo?

Non è un caso che proprio mentre si moltiplicano queste cause, le stesse aziende corrano a firmare accordi con grandi editori: OpenAI con NewsCorp, Google con Reddit, Meta con Axel Springer. È il classico gioco delle tre carte: legalità apparente da una parte, addestramento opaco dall’altra. Mentre si negozia in pubblico, si razzia in silenzio. Il futuro dell’IA generativa, per ora, si costruisce su un’etica di chiedere perdono, non permesso.

C’è anche un’ironia sottile che merita di essere sottolineata: modelli come Megatron vengono usati anche per “difendere” i contenuti. Riconoscimento del plagio, rilevamento di deepfake, sicurezza linguistica. Il ladro digitale che diventa guardiano del copyright. George Orwell, se non fosse stato già saccheggiato dal training data, probabilmente si starebbe rivoltando nella tomba, o magari firmando un’ingiunzione.

La domanda vera, però, è se il pubblico si preoccupa. Finché l’intelligenza artificiale produce contenuti sorprendenti, funzionali, economici e “ispirati”, molti sembrano disposti a chiudere un occhio. O entrambi. L’industria culturale, già sotto stress da modelli di business sempre più fragili, ora si trova in bilico tra due inferni: essere sostituita dall’IA o essere costretta a lavorare per l’IA, vendendo le proprie opere come carburante per nuovi algoritmi.

La causa intentata dagli autori potrebbe sembrare un gesto disperato, ma è anche un segnale di resistenza. Una piccola rivolta contro la narrativa dominante secondo cui tutto ciò che è accessibile può essere copiato, che l’arte è un dataset, e che la creatività umana è solo una matrice da imitare.

La posta in gioco è altissima: non solo il futuro dei diritti d’autore, ma la natura stessa della creazione nei prossimi decenni. Se Megatron vince, potremmo trovarci in un mondo in cui ogni parola è già stata scritta — e ogni voce, clonata.

Benvenuti nell’era dell’AIplagio. Ovviamente l’ultima parola al Tribunale.