CODA (Content Overseas Distribution Association), che rappresenta studi e editori giapponesi tra cui Studio Ghibli, Bandai Namco, Square Enix, ha inviato a OpenAI il 27 ottobre 2025 una lettera ufficiale, richiedendo che i contenuti dei suoi membri non vengano usati per l’addestramento (machine learning) di Sora 2 senza autorizzazione. (
La motivazione è chiara: molte delle opere generate da Sora 2 “somigliano strettamente” a contenuti giapponesi protetti da copyright. CODA sostiene che la mera replicazione (o produzione simile) come output possa costituire “riproduzione durante il processo di machine learning” e quindi violazione di copyright secondo il sistema giapponese.
In aggiunta, CODA contesta l’uso di una policy “opt-out” (cioè lasciar decidere ai titolari se farsi escludere) come insufficiente: secondo loro la legge giapponese richiede permesso preventivo, non la possibilità di obiettare dopo che il danno è già stato fatto.
Lo stato attuale del diritto giapponese sull’uso per AI e le sue ambiguità
Per comprendere se la richiesta di CODA può reggere, serve guardare la legge giapponese sul copyright, specialmente alla modifica del 2018 (Articolo 30-4).
In sintesi: dal 2018, il Giappone ha introdotto un’eccezione che consente “text and data mining” (TDM), ovvero l’uso non autorizzato di opere protette per analisi, test, data process anche a fini commerciali, purché l’utilizzo non violi in modo irragionevole gli interessi del titolare. Questa eccezione è vista da molti come “permissiva” rispetto ad altri ordinamenti.
Ma non è senza limiti. La normativa giapponese considera che l’eccezione non si applichi se l’uso arreca un pregiudizio irragionevole ai titolari del diritto.In più, un rapporto governativo giapponese afferma che, se un fornitore di AI raccoglie materiale chiaramente piratato o protetto da misure tecniche, egli aumenta la probabilità di responsabilità qualora l’output generi contenuti simili alle opere protette.
Quindi, sotto il regime giapponese: c’è un margine legale (incipiente) che consente uso per addestramento, ma l’eccezione non è assoluta e può essere contestata se l’output “riproduce troppo da vicino” le opere originali o se il danno è considerevole.
Un’ulteriore complicazione: Art. 30-4 si riferisce tecnicamente a dati per “analisi, test, elaborazione” un’interpretazione controversa è se l’uso per addestramento generativo (che mira alla produzione di nuove immagini/film) rientri o meno in questo ambito. Alcuni giuristi sostengono che l’addestramento generativo eccede il TDM “tradizionale”.
Le potenziali vie legali e strategiche per CODA / Ghibli
CODA e membri come Studio Ghibli hanno davanti a sé alcune opzioni ma nessuna è certamente vincente:
Richiesta extragiudiziale / negoziazione
La lettera è il primo passo: chiedere che OpenAI sospenda l’uso non autorizzato, offra controlli più granulosi, o negozi licenze. Se OpenAI cedesse, si potrebbe evitare uno scontro legale. CODA ha già chiesto risposte “sincere”.
Azione giudiziaria in Giappone
I titolari possono chiedere in tribunale un’ingiunzione per impedire l’uso di specifiche opere nei training data, oppure chiedere che le opere siano rimosse dai dataset futuri. Il rapporto governativo giapponese riconosce anche queste possibilità. Però, per far valere il diritto, dovranno dimostrare:
- che l’output generato da Sora 2 è molto simile all’opera protetta (la “somiglianza” legale),
- che l’opera originale è stata effettivamente usata nei dati di training (cosa non banale da provare).
- che l’uso ha causato un danno “irragionevole”.
Azione extra-nazionale / in altri paesi
Studio Ghibli potrebbe tentare un’azione in altre giurisdizioni (ad esempio negli Stati Uniti) dove OpenAI ha forte presenza, uscendo dall’ambito restrittivo giapponese. Ma ci si scontra con questioni di giurisdizione, leggi differenti (fair use, safe harbor, ecc.), e prove. Alcuni esperti ritengono che Ghibli abbia poche chance di vincere un caso sullo “stile” (non le opere specifiche) negli USA.
Lobby verso riforma normativa
Le pressioni pubbliche possono spingere il governo giapponese a rivedere il regime TDM, restringendo le eccezioni o chiarendo che l’uso generativo deve essere regolato da licenze. Alcuni segnali indicano che l’attuale approccio permissivo è sotto scrutinio interno.
Cosa può fare OpenAI e che scenari possono emergere
OpenAI non è ingenua: deve calcolare costi, brand risk e futuro normativo. Alcune mosse plausibili:
Aggiornare la policy “opt-out” e aggiungere meccanismi di rimozione retroattiva di opere specifiche se richiesto.
Offrire licenze o accordi di revenue share con grandi titolari IP giapponesi per incorporare legalmente i loro contenuti.
Rafforzare i controlli sull’output di Sora 2 per evitare che generi immagini troppo riconoscibili.
Cercare un compromesso: limitare lo stile “Ghibli” nell’uscita se richiesto, oppure escludere specifiche opere o personaggi su richiesta.
Difendersi invocando che l’addestramento è un’attività “trasformativa / analitica” non proibita cioè che l’output non è una copia, bensì una generalizzazione.
Qual è il peso effettivo della richiesta? cosa cambierà o non cambierà
CODA ha mosso un pezzo forte: merita che OpenAI risponda, perché dalle reazioni future dipenderà molto del “rispetto IP vs accelerazione AI”. Ma la legge giapponese oggi non offre una vittoria automatica. Lo scontro finirà probabilmente in compromessi, licenze o modifiche di policy, non in sentenze drastiche.
Dal punto di vista strategico, se fossi CEO di OpenAI, ti porrei queste domande: «Conviene resistere e fare battaglie legali, rischiando reputazione e costi? Oppure sedersi al tavolo con gli IP giapponesi e trovare un accordo?» In un mondo in cui ogni grande casa di intrattenimento può far pressione, relazioni cooperative contano più del fatto di avere ragione legale.
La lettera CODA non è una fine, ma piuttosto l’apertura di un braccio di ferro che definirà quanto le generative AI dovranno incorporare il consenso degli autori e se l’era dell’“addestrare e chiedere perdono” è finita (o sta finendo) anche in Giappone.