In un futuro non troppo remoto, il tuo peggior nemico nel multiverso di Fortnite potrebbe non essere un dodicenne con riflessi da cyborg e skin da 200 dollari, ma un personaggio non giocante — un PNG — progettato da un altro essere umano, addestrato da un’intelligenza artificiale e programmato per farti premere un pulsante che non dovresti toccare. Letteralmente.
Martedì, sul palco dello State of Unreal, Epic Games ha messo in vetrina il suo prossimo colpo di teatro: i PNG generati con IA. Non si tratta di bot stupidi che camminano in tondo o che ripetono frasi da meme come “Non sono un impostore”, ma di personaggi parlanti, dinamici, che interagiscono tramite chat vocale e sono capaci di sviluppare conversazioni contestuali. Con personalità, dialettica, tono di voce selezionabile e — sorpresa — una certa inclinazione al manipolare i giocatori.
La demo ha avuto il suo momento “Black Mirror”: due sviluppatori Epic hanno chiacchierato sul palco con “Mr. Buttons”, un PNG IA il cui unico scopo era convincere il giocatore a premere un grosso, minaccioso, pulsante rosso in una stanza piena di cartelli che dicevano chiaramente di non farlo. La scena sembrava uscita da un esperimento di psicologia comportamentale con accenti tarantiniani. Mr. Buttons non solo rispondeva coerentemente, ma tentava anche di convincere il giocatore ad andare contro l’autorità visiva della scena. Una metafora sottile della nostra epoca? O solo uno scherzo geek ben confezionato?
L’ambizione di Epic, però, va ben oltre il pulsante rosso.
Il motore di tutto questo è l’Unreal Editor per Fortnite, o UEFN, un sandbox creato per mettere nelle mani di qualsiasi sviluppatore professionista o autodidatta la possibilità di costruire mondi, regole, interazioni. Con l’arrivo dei PNG IA, UEFN diventa qualcosa di più: una piattaforma narrativa dove ogni creatore può dare voce (letteralmente) a un personaggio, costruendone tono, accento, comportamento linguistico. Il tipo di doppiaggio sintetico, personalizzabile, modulabile che fino a un paio di anni fa richiedeva uno studio di registrazione, adesso è a portata di clic. E naturalmente, tutto questo avverrà a voce, non via testo. Alexa, fatti da parte.
Sì, parlano davvero. E non si tratta di una semplice sintesi vocale da centralino telefonico. Dopo l’esperimento con Darth Vader comparso nel gioco con una voce clonata da IA approvata dagli eredi di James Earl Jones pic ha preso gusto nel giocare col fuoco. O meglio: con il linguaggio. La prova? Hanno dovuto patchare Vader perché i giocatori lo avevano costretto a imprecare. Il fatto che ciò sia stato possibile dice già tutto sulla natura semi-libera di queste intelligenze. Siamo a metà tra uno script e un’entità generativa. Un PNG che può rispondere come vuole, nel contesto di ciò che è stato addestrato a capire. Come un attore che improvvisa sul palco, con la sola differenza che il palco è un mondo da 500 milioni di utenti.
Epic lo sa, e rilancia. I PNG IA saranno solo una parte di un arsenale più vasto. Il secondo pezzo dell’equazione è l’Epic Developer Assistant, un chatbot basato su intelligenza artificiale, pensato per aiutare gli sviluppatori nel linguaggio Verse la lingua franca della logica UEFN. Meno chiacchiere, più codice. Se tutto questo suona come ChatGPT dentro Unreal Engine, è perché lo è. Non solo suggerisce funzioni, ma capisce quello che vuoi ottenere e ti aiuta a farlo. Più che un assistente, un vero e proprio copilota creativo.
E poi c’è il business. Perché Fortnite, ormai, è solo tecnicamente un videogioco. In realtà è una piattaforma economica a forma di arena da battle royale. I creatori possono già monetizzare, ma con queste nuove armi potranno differenziarsi con esperienze narrative basate su IP gigantesche: Squid Game, con asset disponibili dal 27 giugno (coincidendo magicamente con la terza stagione della serie Netflix); Avatar: The Last Airbender, previsto per il 2026; Star Wars, sempre più cavallo di Troia per l’espansione Disney dentro Fortnite.
E poi c’è LEGO. Dal 17 giugno, ogni mattoncino sarà costruibile, programmabile e pubblicabile. Un’alleanza strategica per riportare i bambini e i genitori in un ambiente digitale ma rassicurante. Addio metaverso vago di Meta, qui parliamo di giocattoli digitali concreti, con licenze che valgono miliardi.
Epic ha capito una cosa che a molti ancora sfugge: il videogioco non è più solo un medium. È un ambiente. Una matrice dove gli utenti costruiscono, imparano, recitano, programmano. L’arrivo dei PNG IA cambia le regole: ora i giocatori non saranno più soli davanti al codice o agli NPC muti. Avranno personaggi capaci di parlare, convincere, mentire, forse persino sentire. Un teatro in tempo reale, scritto da milioni di mani.
Un dettaglio non trascurabile: Epic controlla l’intero stack tecnologico. Non si affida a terze parti per il suo LLM (modello linguistico), né per la generazione vocale. Questo le dà un vantaggio competitivo clamoroso: ogni nuova funzionalità IA è nativamente integrata, senza le limitazioni dei tool esterni.
E qui arriva la provocazione: cosa succederà quando un creatore userà questa IA per generare un PNG che emula una persona reale? Un amico scomparso, un influencer, un ex. Le domande etiche non sono un effetto collaterale, ma il cuore pulsante di ciò che Epic sta rilasciando nel mondo. Per ora è Mr. Buttons, ma domani potrebbe essere tua nonna che ti chiede perché non l’hai mai chiamata.
Una citazione rubata a Jurassic Park sembra perfetta per chiudere questo sipario futuristico: “I vostri scienziati erano così preoccupati di poterlo fare, che non si sono chiesti se fosse giusto.”
Eppure, qui non si parla di scienziati. Si parla di designer, ragazzini e creatori indipendenti. Armati fino ai denti, non di armi, ma di IA conversazionali. Benvenuti nel nuovo livello del gioco. Dove chi controlla la voce, controlla la realtà.