C’è qualcosa di inquietante in Ancestra, il nuovo cortometraggio di Eliza McNitt prodotto da Darren Aronofsky insieme a Google DeepMind. Qualcosa che va oltre le immagini lisce e carezzevoli del cuore fetale sintetizzato, oltre i vaghi rimandi cosmici tra buchi neri e amore materno. È l’impressione che si stia tentando di trasformare il processo creativo in un diagramma di flusso ottimizzato, dove il dolore umano – in questo caso, la gravidanza a rischio della regista stessa – diventa una scusa nobile per uno showcase aziendale in stile TED Talk.
C’è da capirli, Aronofsky e Google: da un lato un regista geniale in cerca di nuove frontiere produttive, dall’altro un colosso tech che ha bisogno disperato di legittimare le sue costosissime IA generative agli occhi di un pubblico ancora perplesso. E quale terreno migliore della narrazione per farlo, in un’epoca in cui ogni film è anche un pitch?
Ancestra è, formalmente, la storia di una madre (interpretata da Audrey Corsa) che prega affinché il cuore del nascituro si aggiusti da solo, magari con un colpo di grazia spirituale o di editing. Dentro questa premessa umana si infilano le vere protagoniste: Gemini, Imagen e Veo, i modelli IA di Google, che generano l’immaginario onirico – diciamo così – della pellicola. Sequenze di esplosioni stellari, madri animali, cellule in moto: il solito bestiario di stock footage rifinito con una patina gen-AI che ha più a che fare con i reel di Instagram che con la cinematografia.
Non serve neppure scavare a fondo per sentire la fragranza industriale di questo prodotto. La fotografia è accurata, sì, ma non sorprendente. I momenti di tenerezza sono illustrati, più che raccontati. E il baby protagonista, nato da un collage di foto infantili della stessa McNitt e poi interpolato digitalmente, pare uscito da uno di quei documentari della BBC ricostruiti in CGI per spiegare l’evoluzione dei primati. Il risultato è un uncanny valley emotivo dove si finge la vita, ma senza correre il rischio che il neonato si metta a piangere o a cagare nel ciak buono.
McNitt dice: “Non puoi dirigere un neonato”. Certo. Ma allora perché raccontare una storia che dipende dalla presenza di un neonato reale? Perché – e qui sta il nodo – la sceneggiatura è stata letteralmente adattata a posteriori per soddisfare le capacità (o limiti) di Veo e compagnia bella. La regista lo ammette con candore: la scrittura e l’output generativo si sono “influenzati a vicenda”. Tradotto: la narrazione ha dovuto inchinarsi ai capricci di modelli che, attualmente, riescono a produrre solo otto secondi di video consecutivi.
Si direbbe che Ancestra sia il primo film scritto con una deadline di rendering.
Il sospetto è che più che un’opera d’autore, questo sia un concept video travestito da film. Una demo travestita da poesia visiva. Il tono mistico e le inquadrature ravvicinate da Blonde servono a dare un’aria da festival di Venezia a qualcosa che, nel profondo, è una brochure animata per Google DeepMind.
C’è poi il tema, ben più sostanziale, della sostituzione del lavoro umano. McNitt assicura che centinaia di persone hanno contribuito al film. Ma quando si osserva che il team era sensibilmente più piccolo rispetto a una produzione tradizionale, è chiaro quale sia la vera “innovazione”: meno storyboarder, meno concept artist, meno tecnici luci. Più prompt engineer. E meno sindacati.
Il paradosso di fondo è che si sta creando contenuto con IA per raccontare l’umano, mentre si svuota l’industria da chi di umano vive. Non è un caso che gli scioperi di attori, doppiatori e sceneggiatori nel 2023-2024 abbiano avuto proprio l’uso improprio dell’intelligenza artificiale come uno dei nodi centrali. Si è detto spesso che “l’IA non sostituisce, ma trasforma”. Ma trasformare un concept artist in un prompt writer pagato a gettone equivale, culturalmente, a sostituirlo.
Aronofsky, con la sua faccia da profeta digitale, difende l’uso di tecnologie avanzate nel cinema: “sono sempre state parte del processo”, dice. Vero. Ma tra usare Photoshop per ritoccare un cielo e chiedere a un modello linguistico di immaginare l’inquadratura c’è una differenza ontologica, non solo tecnica. Stiamo parlando di un cambio epistemologico della regia. Non si dirige più un team. Si dirige un modello, e poi si finge di “curarlo”.
Guardando Ancestra, l’unica vera emozione è quella del dubbio: “Ma questa scena… l’ha pensata qualcuno, o è stata pescata da un dataset?”
Il film, in fondo, non cerca nemmeno di nascondere la sua natura di showroom. L’inquadratura in cui la mano della madre sfiora il vuoto, dove dovrebbe esserci il bambino, è emblematica: un gesto d’amore che accarezza il nulla. Bello da vedere. Inquietante da pensare.
Ma il problema vero non è Ancestra. È quello che rappresenta. Un futuro prossimo in cui la creatività viene addestrata, compressa, rifinita da modelli addestrati su anni di espressività umana. Un futuro dove raccontare storie potrebbe diventare un esercizio di interpolazione algoritmica. Dove la parola “film” è solo un altro prompt.
Eppure, da tutto questo si potrebbe uscire con una riflessione meno reazionaria. Forse l’IA non va demonizzata, ma integrata come una lente deformante, una provocazione. Il punto è: a servizio di chi? Dell’immaginazione, o della produttività? Del sogno, o della scalabilità?
Per ora, Google ha vinto un round. Ma Ancestra non è un’opera che rimane. È una dimostrazione tecnica con ambizioni poetiche. Come una poesia scritta da un avvocato per vendere mutui. Ben fatta, ma non ci faresti mai un tatuaggio.