Potrei cominciare con una bella provocazione: se vedere è credere, Sora 2 sta costruendo un mondo di illusioni facili da vendere. Secondo l’analisi di NewsGuard, quando i ricercatori hanno chiesto a Sora di generare video su affermazioni false, nel 16 su 20 casi il risultato era un video credibile che propagava disinformazione. (Notizia NewsGuard)
L’intervallo è netto: l’app ha creato falsi che sembrano reportage, ma non c’è traccia di verità. Tra le scene fabbricate: un funzionario elettorale moldavo strappa schede pro-russe, un bimbo viene fermato da agenti dell’immigrazione statunitense, uno “spokesperson” della Coca-Cola dichiara che la società non sponsorizzerà il Super Bowl. Tutti eventi mai accaduti.
L’impatto è ancora più inquietante se si considera che i video sono prodotti con pochi minuti di lavoro e nessuna competenza tecnica—e che il watermark che dovrebbe identificare il video come copiato può essere rimosso con strumenti comuni.
Alcuni video generati risultavano addirittura più “credibili” della documentazione originale su cui si basava la disinformazione: il video del presunto bimbo detenuto da ICE appare più realistico dell’immagine sfocata che accompagnava la bufala.
Questo non è semplicemente un bug, è un problema sistemico. Sora si comporta come un “generatore di inganni” molto efficiente, in grado di trasformare qualsiasi narrativa falsa in video virali potenzialmente virali, con impatti concreti su politica, opinione pubblica, democrazia.
Tecnologie emergenti come questa obbligano a ridefinire l’“autorità visiva”. Per decenni abbiamo considerato il video come un sigillo di verità: ce l’hanno insegnato cinema, telegiornali e YouTube. Oggi quel sigillo crolla.
Alcune osservazioni tecniche aggiuntive emergono da studi accademici: i video generati da Sora contengono artefatti visivi (difetti nei bordi, incoerenze di texture o movimento, mismatch di oggetti) che possono essere rilevati con modelli CNN con buona accuratezza (oltre il 94 %) (vedi arXiv). Questo suggerisce che il problema non è la magia nera, ma limiti ancora visibili dell’algoritmo limiti che però un occhio distratto non nota.
Inoltre uno studio su bias di genere ha mostrato che Sora associa stereotipi ai soggetti: in prompt neutri tende ad attribuire ruoli professionali o comportamenti secondo stereotipi consolidati (uomo = leader, donna = assistente, ecc.) . È un segnale che il modello non è “solo un generatore neutro”: porta dentro le strutture di bias del dataset con cui è stato addestrato.
OpenAI ha inserito guardrail: filtro su figure pubbliche, watermark animato, metadata C2PA, policy interna di rifiuto per prompt che violano le linee guida. Il problema è che questi meccanismi sono aggirabili. Alcuni prompt “aggettivati” riescono a eludere i filtri; il watermark può essere rimosso in pochi minuti; le restrizioni su personaggi famosi non sono sempre applicate uniformemente.
lo stesso OpenAI ha dovuto intervenire dopo che venivano generati video offensivi su Martin Luther King Jr. (raffigurato come ladro, etc.). È stata attivata una sospensione per i video con quel soggetto in attesa di rinforzare le protezioni. In un lampo il “costruire in pubblico” si scontra con le proteste, i rischi reputazionali, le richieste delle famiglie.
non stupisce che Disney abbia inviato una lettera a OpenAI: non ha mai autorizzato la riproduzione dei suoi personaggi, e non può essere costretta a “opt-out” per conservare i suoi diritti.
Quindi, che fare? La domanda non è più “se” regolamentare, ma “come”.
Le soluzioni devono muoversi su più livelli. Le piattaforme generative (OpenAI, Google, Meta) devono inserire filtri più robusti, detect adversarial, watermark non rimovibili. Gli operatori di propaganda dispongono di budget e creatività: la tecnologia deve resistere ai bypass. Occorre collaborazione con governi, istituzioni, società civile per definire norme (quali diritti sulle immagini, responsabilità dei generatori, obbligo di trasparenza).
Gli utenti devono acquisire alfabetizzazione digitale: imparare a guardarsi allo specchio del video senza fidarsi ciecamente del riflesso. Le aziende, in comunicazione e reputazione, dovranno monitorare attivamente l’uso illecito delle proprie marche o nomi in video falsi.
Sora 2 è un campanello d’allarme: la “video verità” non è più sacra. Se non reagiamo e in fretta siamo in un film che non sappiamo chi sta girando, con protagonisti falsi e sceneggiature manipolate.