Benvenuti nell’epoca in cui anche il vostro cane potrà dirigere un cortometraggio, purché mastichi qualche comando testuale e abbia accesso a Runway o a Google Veo. Il cortometraggio My Robot & Me è il manifesto involontario o forse sottilmente intenzionale di questa nuova era: l’AI può fare (quasi) tutto, ma la creatività resta l’ultimo baluardo umano. Per ora.
Parliamoci chiaro: la storia parte con un incipit da presentazione TEDx. “Silenzia il cellulare, mastica piano il popcorn, e ricordati che tutto ciò che vedi è stato generato dall’intelligenza artificiale”. Eppure non è solo un esercizio di stile o una demo per geek con troppo tempo libero. È una provocazione culturale, un test sul campo, un assaggio di un futuro dove la produzione video e forse tutto il settore creativo sarà riscritto, una prompt alla volta.
Non ci sono telecamere vere. Niente attori. Nessuna troupe con le magliette nere e i walkie-talkie. Solo dati, GPU e una valanga di tentativi falliti.
Lo dico subito, prima che tu pensi “ma allora è finita”. No, non è finita. È appena cominciata. Ed è molto, molto più caotica — e interessante — di quanto sembri.
La parola chiave qui è video AI. E intorno ci danzano concetti come generative media, creatività computazionale, prompt engineering. Sembra un festival di buzzword? Forse. Ma queste parole stanno già mangiandosi l’industria come piranha in una piscina per bambini.
Qualche anno fa, l’apice dell’AI video era un Will Smith deforme che ingoia spaghetti pixelosi come un mostro di Cronenberg. Oggi puoi generare un filmato in 4K dove un robot ti corregge la postura durante i push-up con un’espressione più credibile di un attore di soap opera. Puoi girare tutto senza uscire dal tuo browser. E se ti accontenti, anche senza una singola riga di codice.
Ma e qui sta la vera fregatura non è affatto facile.
La realtà è che l’AI può generare tutto, ma non capisce niente. È un pappagallo drogato che ha visto troppi film su Netflix. Gli dici “genera un’inquadratura bassa mentre faccio flessioni con un robot accanto” e ti restituisce qualcosa che quasi funziona. Poi nella clip successiva il tuo clone digitale ha il naso storto, due dita in più, e il robot si è trasformato in un tostapane.
Tutto questo è costruito. Ogni scena, ogni angolazione, ogni movimento di camera è il frutto di decine spesso centinaia di prompt, rigenerazioni (lo sa bene mia sorella…), adattamenti e correzioni. Altro che “basta un’idea”. L’AI non è la bacchetta magica, è uno scalpello impazzito in mano a un artista cieco. E tu devi guidarlo, con precisione chirurgica.
Jarrard Cole, il co-produttore del corto, ha costruito una vera e propria pipeline produttiva. Un flusso dove Midjourney serve da designer per gli ambienti, l’aspetto del robot, e lo “storyboard visivo”; Runway e Veo trasformano quegli asset in video dinamici. Ma serve ancora una mente umana a decidere come.
E serve tanta pazienza. Perché anche con i tool migliori (spoiler: Sora di OpenAI ancora non ci siamo), ti ritrovi con clip inutilizzabili, volti incoerenti, scene che sembrano glitch di un sogno febbrile.
E allora perché farlo?
Perché funziona. Perché non serve un budget da blockbuster. Perché puoi esplorare idee visive che nessun direttore della fotografia tradizionale oserebbe proporre. Perché puoi farlo in tre giorni, non tre mesi.
Ma soprattutto perché è divertente. E liberatorio. L’unico limite è il tuo cervello. O la tua capacità di promptare, che inizia ad assomigliare sempre di più a una nuova forma d’arte.
In mezzo a tutto questo “slop” — termine deliziosamente cinico con cui viene ormai etichettata l’AI content — c’è qualcosa che resiste: il tocco umano. L’intenzione. L’ironia. La capacità di dare un senso al caos. È questo che differenzia My Robot & Me da un reel generato a caso da TikTok AI Studio.
Se vuoi uno spot perfetto per un rasoio, l’AI può farlo. Se vuoi raccontare la storia di come un robot ti aiuta a diventare una versione più efficiente di te stesso, ma finisci col diventare il suo schiavo emotivo… beh, quello richiede ancora qualcuno che sappia cosa significa essere umano.
Eppure la direzione è tracciata. In una manciata d’anni, chiunque potrà generare contenuti visivi di qualità professionale con un’interfaccia semplice. Le professioni creative cambieranno. Non spariranno, ma verranno riscritte. Il regista diventerà un architetto semantico. Il montatore sarà un curatore di alternative generate. L’attore? Magari diventerà un fornitore di dati biometrici. Bello, no?
Chi resisterà? Chi saprà usare questi strumenti per dire qualcosa che vale la pena ascoltare.
Perché no, non siamo robot. Ancora no. E questo è il momento perfetto per dimostrarlo.
The Wall Street Journal
Details:
– Google DeepMind Veo 2 (and 3) and Runway Gen-4
– Voices by Joanna Stern + ElevenLabs
– Music by Suno
– Script by humans (not AI)
Support the creators:
Joanna Stern
Jarrard Cole
David Hall
Paige Money
Source: https://www.youtube.com/watch?v=US2gO7UYEfY