Sphere Las Vegas inaugura questa versione immersiva del classico del 1939 il 28 agosto 2025, su uno schermo LED da 160 000 piedi quadrati (circa 15 000 m²) con risoluzione 16K×16K, rendendo visibile ogni dettaglio anche a 17 600 spettatori seduti sotto la cupola.

James Dolan, CEO di Sphere Entertainment, ha spiegato che l’originale Technicolor è totalmente rispettato, ma trasformato con l’uso del generative AI: oltre il 90% del film è stato toccato da AI grazie a Google Cloud e DeepMind, con modelli come Gemini, Veo 2 e Imagen 3.

Utilizzando tecniche di super resolution e outpainting, AI “riempie” lo schermo generando nuovi pixel e ampliando i bordi originali del film, fino ad includere personaggi e ambienti che prima erano fuori quadro. Per esempio, nella scena con Dorothy, la zia Em e Miss Gulch, ora appare anche lo zio Henry, in una inquadratura più ampia e drammaticamente coerente.

L’archivio Warner Bros. è stato sfruttato appieno: script, set design, fotografie e riferimenti tecnici sono stati utilizzati per addestrare i modelli AI al fine di garantire coerenza storica e stilistica – non fantasia pura, ma un rifacimento con rigore filologico.

Sphere e Google hanno speso decine di milioni in infrastruttura: oltre 1,2 petabyte di dati elaborati per il progetto, con GPU e TPU custom su Google Cloud, orchestrati tramite Kubernetes per supportare l’enorme richiesta computazionale.

La presentazione si arricchisce di effetti multisensoriali: vento, vibrazioni, odori, temperature variabili in sala, orchestrati per far viaggiare lo spettatore dentro Oz, come se fosse sul set nel 1939.

James Dolan ha precisato che l’obiettivo era non modificare la pellicola, ma farvi entrare dentro, ricreando l’atmosfera e la composizione originale, come se foste “in studio quando fu girata”. Non si tratta di aggiunta di dialoghi o nuova musica: il suono è stato invece rimasterizzato, l’intera colonna musicale registrata di nuovo da un’orchestra da 80 elementi diretta da David Newman sullo stesso palco originale di MGM, per adattarsi all’audio immersivo della sala.

Questo progetto segna una pietra miliare nel campo dell’intrattenimento. Ne hanno parlato la stampa tecnica, il Wall Street Journal, The Verge, TechRadar e ODSC, concordi sul fatto che il classico è stato rispettato, eppure superato grazie alla AI cinematografica avanzata.

È un esempio eloquente di come l’AI generativa non sia solo automazione ma rielaborazione creativa autorizzata, con limiti precisi, per ridefinire l’esperienza dal film alla immersione ambientale. D’altra parte c’è chi storce il naso: pur senza modificare la recitazione, alcuni conservatori del cinema vedono in questo un rischio di “tampering” con i capolavori senza consenso.

Curiosità provocatoria: Google ha chiamato in causa l’idea di performance generation, cioè proporre inquadrature in cui i personaggi recitano in frame mai visti, come se avessero recitato un’altra volta. Una sorta di teatro digitale postumo, ma basato su dati originalissim.

In pratica la proiezione del film non sarà più semplicemente grande, sarà un’esperienza immersiva totale. Non un saccheggio del passato, ma un esperimento di potenza tecnologica che ridefinisce i concetti di “classico” e “ricreazione”. Un futuro che arriva con un imponente passo e un po’ di cipria da teatro per Judy Garland, naturalmente incorrotta nel cuore.