HeyGen ha deciso di alzare l’asticella. O, a seconda dei punti di vista, di aprire ufficialmente la stagione delle deepfake di massa. Il suo nuovo Ai Studio è un salto quantico rispetto alla solita offerta da avatar precotti e sintetici. Stavolta puoi mettere online te stesso, o meglio una tua copia digitale inquietantemente precisa: voce, mimica, microespressioni, persino le esitazioni e i sospiri. Bastano una singola foto e trenta secondi di audio. E via, il tuo gemello digitale è pronto per presentazioni aziendali, messaggi personalizzati o tutorial da vendere al chilo su qualche piattaforma di automazione.

Il tutto, ovviamente, senza dover accendere la webcam. La promessa implicita è quella dell’efficienza assoluta: contenuti professionali in pochi minuti, zero attori, zero regia, zero post-produzione. Un’utopia per chi produce contenuti. Un incubo per chi difende la nozione di identità autentica.

Durante il primo keynote, HeyGen ha lanciato la sfida: avatar o persona reale? Il pubblico ha perso, ovviamente. E a quel punto la linea sottile tra verosimiglianza e manipolazione si è dissolta come neve su un chip grafico. Che succede quando il tuo avatar può pronunciare frasi che tu non hai mai detto? Quando il tuo tono di voce, la tua postura, il tuo volto sono impiegati in contesti che non hai mai autorizzato, magari per chiedere soldi a un familiare o impartire ordini aziendali fittizi? La tecnologia è già qui, in produzione, ed è venduta come SaaS. Provala gratis. No credit card required.

Il problema, ovviamente, non è solo tecnico. È culturale, legale, ontologico. Perché HeyGen Ai Studio non è un gioco, ma uno strumento di simulazione identitaria ad altissima risoluzione, in tempo reale e potenzialmente globale. A differenza dei vecchi avatar cartoonizzati o delle voci sintetiche da GPS, qui si entra in un territorio nuovo: l’imitazione perfetta, indistinguibile. Che, per inciso, è anche la definizione di truffa quando viene applicata senza consenso.

E non è una distopia teorica. Mentre HeyGen affina i suoi cloni vocali e gestuali, in parallelo cresce il mercato degli scam iper-realistici. Bastano un messaggio WhatsApp, un link e un video fake credibile e il danno è fatto. Le banche, per ora, si limitano a inserire banner di “educazione digitale” nei loro siti. Ma un clone che ordina di pagare in bitcoin, con il volto del tuo CEO e la voce giusta, è già oggi una minaccia concreta. Anzi, è già accaduto, ma finché non diventerà virale, nessuno se ne occuperà seriamente.

Il cortocircuito è totale: mentre l’AI generativa perfeziona l’illusione della presenza, noi stiamo smantellando ogni meccanismo di verifica. La firma digitale non è mai entrata nel mainstream. Il watermarking nei video è ancora roba per specialisti. E l’identità verificata è una promessa più fragile della blockchain. Nel frattempo, i cloni si moltiplicano e diventano sempre più convincenti. Come nel romanzo “Il mondo nuovo” di Huxley, stiamo generando individui in provetta, ma stavolta digitali, e li mettiamo subito a lavorare per noi.

In questa nuova frontiera si inseriscono iniziative come Botscanner, progetto di Peter Kruger che prova almeno a mettere ordine: capire quale intelligenza artificiale ha generato cosa, con quale modello e quali dati. Un tentativo di rimettere un’etichetta sul pesce digitale. Ma è una rincorsa, non una soluzione. La verità è che ci stiamo giocando la fiducia, pezzo dopo pezzo.

E poi c’è la questione dei lavoratori invisibili. Antonio Casilli, nel suo intervento, ha ricordato che dietro gran parte di queste “magie AI” ci sono eserciti di clickworker sottopagati che taggano, puliscono, controllano e sistemano dati. La realtà, per ora, è ancora una catena di montaggio travestita da algoritmo. Ma quanto durerà? E cosa succede quando il sistema impara abbastanza da fare a meno anche di loro?

Laura Venturini, dal canto suo, insiste sull’importanza del prompt mindset, cioè della capacità di porre le domande giuste per guidare l’AI. Una prospettiva interessante, ma che rischia di diventare una raffinata forma di auto-addestramento: noi ci adatteremo all’AI, non viceversa. Scriveremo per lei, parleremo per lei, reciteremo per lei. O meglio, il nostro clone lo farà al posto nostro. Alla fine del processo, chi resta?

C’è qualcosa di profondamente inquietante in tutto questo. Non perché la tecnologia sia pericolosa in sé, ma perché è disegnata per essere fluida, invisibile, indistinguibile. HeyGen Ai Studio non è un prodotto: è una macchina narrativa che produce simulacri di presenza, adatti a qualsiasi scopo. E in un mondo dove tutto può essere replicato, perfino il tuo volto che chiede aiuto, il concetto di reale comincia a perdere peso.

La domanda non è più “possiamo farlo?”, ma “chi deciderà come e quando possiamo farlo?”. E mentre i legislatori dormono, le startup itera… iterano. Nessun GDPR ti protegge dal tuo avatar che ti somiglia troppo. Nessuna legge italiana impedisce che tu venga clonato da uno sconosciuto. Anzi, probabilmente, l’unico modo per difenderti sarà… creare tu per primo il tuo gemello digitale. Come dire: il miglior antidoto al deepfake è il pre-fake, marchiato e certificato da te stesso.

La puntata di Eta Beta su Radio1, disponibile in podcast su Rai Playsound, offre una panoramica lucida, anche se ancora un po’ ottimista. Perché se davvero il futuro è fatto di doppi digitali e intelligenze mimetiche, allora dovremmo cominciare a discutere seriamente di diritto all’unicità, diritto all’assenza, e, perché no, diritto al silenzio digitale. Perché tra un video generato e un altro, il vero lusso sarà restare inediti.

Un saluto al grande Massimo Cerofolini.