Se cercate il fondo del barile dell’intelligenza artificiale, non è tra i robot che sbagliano a giocare a scacchi. È molto più in basso. Più precisamente: nelle immagini generate da app come “CrushAI” pubblicizzate su Facebook, Instagram, Messenger e Threads, dove l’obiettivo non è risolvere problemi ma spogliare persone – spesso donne e minorenni – senza alcun consenso. È pornografia algoritmica con il bonus dell’anonimato e il prezzo scontato della morale.
Meta ha deciso di dire basta. O meglio, ha deciso che ora basta. Dopo centinaia di annunci pubblicitari scoperti da un’inchiesta di CBS News, il colosso guidato da Zuckerberg ha intrapreso un’azione legale contro Joy Timeline, una società con sede a Hong Kong, responsabile della diffusione degli annunci di “CrushAI” e altri tool simili. Una mossa che suona più come un’operazione di PR che una reale stretta etica, ma in un mondo dove l’immagine è tutto, anche questo fa curriculum.
La questione è tecnica, politica, economica, ma soprattutto simbolica. Meta sostiene che la Joy Timeline avrebbe “aggirato ripetutamente il processo di revisione degli annunci” per pubblicare app che promettono di “denudare” chiunque da una semplice fotografia. Fantascienza a uso predatorio. Ed è proprio l’uso che preoccupa: uomini tra i 18 e i 65 anni, target principale di queste inserzioni, con una chiara inclinazione all’abuso digitale, al ricatto, alla “sextortion”. Una pornografia della vendetta 3.0 dove le vittime non posano, ma subiscono.
L’algoritmo fa tutto. L’utente sceglie la foto. Il deepfake fa il resto.
Meta, che ha costruito un impero alimentando la pubblicità ipertargettizzata, ora si trova costretta a bloccare le sue stesse vene cave. I canali da cui scorre il traffico sporco. Ha già rimosso centinaia di annunci, cancellato account, bloccato URL. Ma ammette – candidamente – che le contromisure sono sempre meno efficaci. La generative AI sfrutta falle, automatizza l’occultamento, mimetizza la pornografia nel linguaggio delle app “creative”. È il porno del futuro travestito da “arte digitale”.
CBS non è sola in questa caccia al voyeurismo sintetico. Anche 404 Media aveva pubblicato un’inchiesta simile nell’aprile 2024, portando Google e Apple a rimuovere app di nudify dai loro store. Più recentemente, San Francisco ha avviato una causa contro 16 dei principali siti web di deepfake erotici. Ma per ogni app rimossa, altre tre nascono altrove, su server più oscuri, con nomi nuovi e algoritmi ancora più raffinati. È la “Hidra Porn” economy: tagli una testa, ne spuntano altre.
Il paradosso? Meta, che da anni viene accusata di promuovere contenuti tossici in nome del profitto, ora si erge a paladina della moralità digitale. Ma è difficile credere che l’azienda non sapesse nulla finché CBS non ha bussato alla porta. Gli annunci erano ovunque. Le immagini circolavano. Gli URL erano cliccabili. Solo dopo l’esposizione mediatica, Meta ha improvvisamente scoperto l’indignazione. Come il fumatore pentito dopo la TAC ai polmoni.
Dall’altro lato, Joy Timeline sembra appartenere alla galassia di società tech para-fantasma: sedi a Hong Kong, reti di pubblicità programmatica offuscate, nomi di dominio che cambiano ogni settimana. Una struttura pensata per sfuggire ai controlli, e probabilmente a qualsiasi giurisdizione occidentale. Denunciarli è come querelare un’ombra. Ma almeno serve a segnalare la posta in gioco: la dignità dei corpi, anche se digitalizzati.
I confini del consenso si stanno sgretolando sotto l’accelerazione dell’AI generativa. Una ragazza può trovarsi nuda su uno schermo senza aver mai posato. Un bambino può trovarsi coinvolto in scenari criminali con un click. E tutto questo viaggia tra le maglie di Meta, tra uno scroll su Instagram e un messaggio su Messenger. È una pornografia democratica, distribuita in HD, asincrona, senza regole. Il consenso non viene chiesto, viene calcolato. O peggio, ignorato.
C’è una domanda che in pochi vogliono affrontare davvero: cosa succede quando la realtà non serve più per creare desiderio? Quando il falso è più efficace del vero? L’AI pornografica non è solo un problema legale o tecnologico. È un sintomo di una disfunzione più profonda: il consumo sessuale come forma di dominio, il digitale come alibi per disumanizzare, la privacy come optional.
Meta si muove, forse troppo tardi, forse per convenienza. Ma la mossa è comunque importante. Serve da esempio. E mette un punto – per ora – in una guerra che non si combatte più nei tribunali ma nelle GPU.
“L’intelligenza artificiale dovrebbe servire a elevare l’umanità, non a denudarla” – ha detto un portavoce di Meta. Ma nel frattempo, i server di Joy Timeline elaborano ancora pixel. E il desiderio, anche quello più tossico, trova sempre un modo per circolare.