Riprese CCTV di Sam Altman che ruba GPU da Target per alimentare Sora 2

OpenAI ha appena svelato Sora 2, un’app che propone video generati da IA in uno stile “short form” alla TikTok. Il risultato è tecnicamente impressionante, ma il passaggio dal laboratorio etico al feed virale mette in luce tensioni insanabili tra scienza e engagement.

Sora non è un mero esperimento accademico: gli utenti possono creare 10-secondi video con voce e immagini sintetiche, remixare contenuti, usare il proprio volto (attraverso un sistema di “cameo”) e surfare su un feed alimentato da un algoritmo di raccomandazione. OpenAI afferma di aver predisposto filtri contro contenuti violenti, estremisti o sessualmente espliciti e un “bias” che favorisce contenuti di amici rispetto a estranei. Nonostante ciò, i primi contenuti virali includono numerosi deepfake di Sam Altman in scenari assurdi un classico “virale shock” già visto in altri ecosistemi AI.

Ma il nodo non è l’innovazione, è il perché. Alcuni ricercatori attuali e passati di OpenAI hanno esternato prudenza John Hallman si è detto inquieto: “I feed basati su IA sono spaventosi.” Boaz Barak elogia l’aspetto tecnico di Sora 2 ma avverte che è troppo presto per credere che eviterà gli stessi mali social già visti. Il dilemma è evidente: un feed virale spinge verso il “contenuto che cattura”, non verso il “contenuto che edifica”.

Molti guardano dietro questa mossa la volontà di monetizzare l’attenzione su larga scala, con implicazioni che rischiano di mettere in crisi la mission “no profit” originaria di OpenAI (di garantire che l’IA sia usata per il bene dell’umanità). È un salto da laboratorio a social media vero, con tutti i rischi che questo comporta.

Se i contenuti generati saranno dominati da meccaniche di viralità — shock, umorismo, parodia quanto spazio rimarrà per riflessione, curatela e responsabilità? OpenAI afferma che farà poll regolari sul benessere degli utenti e offrirà opzioni per “regolare il feed”. Ma sappiamo che le architetture algoritmiche tendono a premiare il “coinvolgimento forte” anche quando è tossico.

Ci sono poi questioni legali e di trasparenza: non è ancora chiaro quali dataset (film, TikTok, serie TV, video protetti da copyright) siano stati usati per addestrare Sora. Alcuni test suggeriscono che versioni di film, show Netflix e video TikTok siano state incluse. Se OpenAI continua a non chiarire, perde legittimità davanti a critici, legislatori e artisti.

Una ricerca accademica sottolinea che modelli generativi video come Sora fanno emergere sfide di governance: confusione tra reale e falso, erosione dell’autonomia umana, problematiche di privacy e diritti d’autore, temi ambientali legati al costo computazionale. (arXiv)

Quel che ancora manca: un meccanismo robusto, indipendente, di monitoraggio etico su vasta scala.