Siamo entrati in un’era in cui l’inganno digitale ha imparato a respirare, battere, sudare. Eppure, anche il migliore dei deepfake, quello che ti frega l’occhio e ti accarezza il sospetto, manca sempre di qualcosa. Manca quel micro-secondo di esitazione emotiva, quella scintilla di incoerenza umana che non si può interpolare o sintetizzare. Ma le cose stanno cambiando, e molto velocemente. Fabrizio Degni lo ha notato e condiviso: “High-quality deepfakes have a heart”. No, non è una metafora. È un dato scientifico.
La ricerca pubblicata su Frontiers il 30 aprile 2025 da Clemens Seibold, Eric L. Wisotzky e colleghi ha messo nero su bianco ciò che fino a poco tempo fa sembrava impensabile: i deepfake ad alta qualità possono simulare i segnali del battito cardiaco umano, rendendo obsoleti i metodi di rilevamento basati su analisi biometriche tradizionali. Altro che “i deepfake non hanno un’anima” forse ancora no, ma un cuore simulato sì, e batte pure bene.
Questa illusione perfetta si basa sulla tecnica di remote photoplethysmography (rPPG), un metodo in grado di rilevare micro-variazioni nella colorazione della pelle legate al flusso sanguigno. I ricercatori hanno scoperto che i deepfake più sofisticati ereditano queste variazioni direttamente dai video originali (i cosiddetti “driver video”), risultando incredibilmente realistici nei segnali fisiologici. Roba da far impallidire i software di riconoscimento facciale più avanzati.
Se fino a ieri l’analisi del battito cardiaco globale – estratto dal volto – era un’arma efficace per svelare l’inganno, oggi è diventata inefficace. Il paper è chiaro: serve uno shift metodologico verso l’analisi dei pattern locali di flusso sanguigno, una sfida tecnica non indifferente in un mondo di video compressi, luci ballerine e dataset di qualità variabile.
Il problema, naturalmente, non è solo tecnico. È anche percettivo. Anche quando un deepfake simula la fisiologia, manca ancora qualcosa. Tu stesso, giustamente, noti che senza contesto – senza familiarità con i tic, le espressioni, le inflessioni emotive di un volto – diventa quasi impossibile distinguerlo dal vero. Ma il pathos? Il carisma imprevisto di un’esitazione vera? L’asimmetria di un sorriso nervoso o l’errore fuori copione? Quelli, ancora oggi, sfuggono all’algoritmo.
La domanda quindi non è solo “possiamo rilevare un deepfake?” ma “possiamo ancora fidarci di ciò che vediamo?”. E la risposta, ogni giorno di più, è un suono sordo, incerto, simile a un battito: forse no.
Per chi volesse giocare allo scienziato da salotto, è possibile sperimentare con un setup Python che usa librerie come OpenCV, SciPy, dlib e NumPy. Servono almeno 10 secondi di video con luce stabile. Si estrae il volto (MediaPipe o OpenFace), si analizzano le fluttuazioni RGB, si filtrano le frequenze e si applica una FFT per stimare il battito cardiaco. Se si dispone sia del video reale che della sua versione deepfake, è possibile tentare un confronto. Ma attenzione: i falsi positivi sono dietro l’angolo, soprattutto su video compressi o rumorosi. Senza contare che l’estrazione di segnali biometrici da video – anche se pubblici – solleva gravi problemi legali e di consenso (vedi GDPR).
In definitiva, i deepfake stanno diventando bio-realistic, ma restano emotivamente piatti. Hanno un cuore, ma non un’anima. E finché non troveranno anche quella, ci resta uno spiraglio per distinguere l’umano dall’imitazione. Per ora.
Hai mai provato a ingannare un deepfake chiedendogli di improvvisare emozioni?