È stato necessario l’intervento del Oversight Board, l’organo che Meta ha creato per farsi il bagno di trasparenza, perché qualcuno in azienda si degnasse di togliere un video truffaldino con protagonista a sua insaputa Ronaldo Nazário. Non il giovane Cristiano, ma il Fenomeno, quello vero. E anche il deepfake era tutto fuorché credibile: un doppiaggio posticcio, movimenti labiali scoordinati, e una promessa irreale guadagnare più che lavorando grazie a un giochino online chiamato “Plinko”.
Benvenuti nell’epoca dell’intelligenza artificiale generativa, dove la reputazione umana è una licenza open source, e i colossi tech oscillano tra l’ignoranza deliberata e la complicità algoritmica.
L’annuncio, confezionato come pubblicità su Facebook, ha superato il mezzo milione di visualizzazioni prima di venire segnalato. E anche allora, Meta ha deciso che non valeva la pena rimuoverlo. È stato necessario un appello, un altro rifiuto, e infine un ricorso al Board. Perché? Perché, come ha scoperto il Board stesso, solo team “specializzati” dentro Meta possono intervenire su queste tipologie di contenuti. Come dire: la disinformazione fraudolenta è un problema, ma solo se arriva alla scrivania giusta.
La faccenda è grottesca ma familiare. Il CEO Mark Zuckerberg aveva già fatto finta di niente poche settimane prima, quando l’attrice Jamie Lee Curtis lo ha pubblicamente chiamato in causa per un altro deepfake che la coinvolgeva. Lì si trattava di un’intervista manipolata, trasformata in pubblicità da clickbait senza il suo consenso. Risultato? L’ad disabilitato, ma il post lasciato online. Zuckerberg è diventato il concierge di un albergo infestato da fantasmi digitali: si limita a spostare le sedie ogni tanto, ma non caccia gli spettri.
Questa strategia di non-intervento non è casuale. È strutturale.
Meta, come altre big tech, ha costruito un sistema di enforcement delle sue Community Standards che funziona solo se l’infrazione è sufficientemente rumorosa da raggiungere il notiziario. Ma i milioni di contenuti borderline, quelli che frodano le persone senza clamore, restano nel limbo delle segnalazioni ignorate. L’algoritmo ha imparato che la reputazione aziendale vale più della reputazione personale di un utente.
E qui arriva l’ironia tragica: proprio mentre Meta si erge a paladina contro la disinformazione, una sua ex dirigente, Sarah Wynn-Williams, si prepara a testimoniare davanti al Congresso USA che l’azienda avrebbe consapevolmente assistito le ambizioni cinesi nel campo dell’AI. Il timing è perfetto: da un lato un deepfake fraudolento non rimosso, dall’altro accuse di complicità geopolitica. Meta si muove come un funambolo sull’orlo della fiducia pubblica, bilanciando interessi economici e danni collaterali.
Ritornando a Ronaldo: usare il volto di un’icona globale per promuovere un prodotto truffaldino non è solo uno scivolone morale. È una dichiarazione d’intenti. Perché la promessa che Plinko sarebbe più redditizio di un lavoro normale in Brasile non è solo una frode commerciale: è la distillazione perfetta di quella narrativa tossica che l’AI alimenta ogni giorno. “Lascia il tuo lavoro, fai soldi senza sforzo, fidati della macchina.” È il sogno neoliberista aggiornato alla versione 5.0, con CGI e voiceover sintetici.
Il caso ha scatenato nuove pressioni legislative, culminate nel Take It Down Act firmato dal presidente Trump (sì, proprio lui), che impone la rimozione entro 48 ore delle immagini intime deepfake non consensuali. La legge nasce dall’ondata crescente di pornografia generata da AI, che ormai prende di mira celebrità e minori con un’efficienza spietata. Eppure, anche questo provvedimento si muove su un campo minato: come si definisce consenso in un’era dove l’identità digitale è liquida e replicabile?
La risposta di Meta? “Stiamo valutando.” Come sempre. Un eterno aggiornamento in corso. Nel frattempo, l’advertising deepfake continua a circolare, perché ogni click è denaro, e ogni visualizzazione è un indicatore di performance. L’etica è un optional, un parametro da attivare solo se i media si accorgono dell’abuso.
Siamo ormai entrati nella fase terminale della fiducia digitale, dove non puoi credere a ciò che vedi, né fidarti di chi ti mostra. L’AI ha reso possibile l’inautenticità sistemica, e i regolatori corrono dietro con fischietti d’ordinanza mentre i giganti tech affinano nuove tecniche di “non responsabilità”.
Se Ronaldo venisse a sapere di essere stato trasformato in un promoter di Plinko, forse sorriderebbe, forse denuncerebbe. Ma in fondo, cosa può fare un individuo contro un’infrastruttura che replica la tua immagine con la stessa facilità con cui genera un meme?
“Se non sei a tavola, sei nel menù”, dice un vecchio adagio dell’internet capitalista. E oggi, a tavola ci sono gli algoritmi, i venditori di illusioni, e le piattaforme che lucrano sulle tue sembianze. Il resto di noi? Siamo tutti Ronaldo. Ma senza il contratto da Galactico.