L’ultima frontiera del degrado digitale non è un nuovo meme o uno scandalo politico, ma video così realistici da sembrare rubati dal mondo reale, in cui donne in bikini intervistano passanti per strada mentre ricevano commenti osceni. Tutto falso, rigorosamente prodotto da strumenti di intelligenza artificiale capaci di generare contenuti iperrealistici da un semplice prompt testuale. La chiamiamo “AI slop”, roba industriale, economica, prodotta a raffica e pronta a invadere Instagram, TikTok e X come un’onda tossica.
Il fenomeno non è solo un esercizio tecnico: è una macchina per soldi mascherata da intrattenimento. Influencer digitali completamente generati dall’IA creano clip sessualizzate a ritmo industriale, spinti da programmi di incentivazione che pagano i contenuti virali. L’ironia crudele? La linea tra reale e finto si assottiglia fino a scomparire, e gli utenti si trovano a commentare donne inesistenti come se fossero persone vere. Agence France-Presse ha tracciato centinaia di video su Instagram, molti in hindi, in cui uomini fingono di fare battute misogine o addirittura di toccare le intervistatrici, mentre altre persone ridono sullo sfondo. Centinaia di milioni di visualizzazioni e link monetizzati a piattaforme di chat per adulti completano il quadro.
La tecnologia dietro tutto questo non è segreta. Alcuni video analizzati dalla società americana GetReal Security sono stati generati usando Veo 3 di Google, noto per i suoi rendering iperrealistici. Se Will Smith può mangiare spaghetti su Veo 3, le molestie virtuali possono viaggiare indisturbate nello stesso spazio digitale. Nirali Bhatia, psicologa informatica indiana, sintetizza il problema con cruda chiarezza: “La misoginia che restava confinata alle chat di spogliatoio ora si veste di visual AI”. Non è solo un problema tecnologico, è un danno mediato dall’IA che alimenta il sessismo.
L’invasione di contenuti sessisti e iperrealistici è solo la punta dell’iceberg. Meme, video e immagini generate dall’IA competono con i contenuti autentici, sovrastandoli e erodendo la fiducia residua negli spazi digitali. Emmanuelle Saliba di GetReal Security commenta lapidaria: “Il contenuto generato dall’IA, soprattutto se non etichettato, logora lentamente l’unico collante rimasto nella fiducia visiva”. Alcune clip virali rappresentano addirittura donne di colore come primati giganti, mostrando che l’IA può diventare uno specchio deformante delle peggiori inclinazioni culturali, amplificando stereotipi e misoginia sotto forma di intrattenimento virale.
Il fenomeno non si limita a semplici battute sessiste. Alcuni video mostrano incidenti fantasma, come la trainer marina “Jessica Radcliffe” attaccata da un’orca durante uno spettacolo, diffondendo panico globale. La viralità dei deepfake si nutre di questa credulità: utenti indignati condividono la tragedia virtuale pensando che sia reale, mentre gli algoritmi premiano il sensazionalismo.
L’analisi del passato anno da parte di Alexios Mantzarlis di Cornell Tech ha identificato 900 account Instagram probabilmente generati dall’IA, con modelle digitali femminili e poco vestite. Complessivamente, questi account hanno accumulato 13 milioni di follower, postando oltre 200.000 immagini e monetizzando traffico e attenzione spingendo gli utenti verso piattaforme commerciali di condivisione contenuti. Oggi le cifre sono certamente superiori, conferma Mantzarlis: “Aspettatevi contenuti ancora più assurdi, che non solo ignorano la realtà, ma la negano completamente”.
La polizia digitale fatica a reggere il passo. Creatori di contenuti AI – studenti, genitori, freelance globali – trasformano la produzione di video in gig work. Su YouTube e TikTok si offrono corsi a pagamento su come monetizzare materiale virale generato dall’IA, mentre le piattaforme riducono i fact-checker umani e comprimono la moderazione dei contenuti. Alcuni tentativi di controllo ci sono, come la recente politica di YouTube contro chi produce contenuti “inautentici e massificati”, ma l’efficacia rimane limitata.
Divyendra Jadoun, consulente AI, coglie il punto: “L’IA non inventa la misoginia, la riflette e la amplifica. Finché il pubblico premia questo tipo di contenuto con milioni di like, algoritmi e creatori AI continueranno a produrlo. La vera battaglia non è solo tecnologica, ma culturale e sociale”.
Quello che sta emergendo è un ecosistema digitale dove l’attenzione si compra e la credibilità si vende al miglior offerente. Video deepfake sessisti non sono solo fake, sono strumenti di manipolazione emozionale e culturale. Il rischio? Gli algoritmi che apprendono da questi contenuti potrebbero considerare la misoginia virale un comportamento normale, amplificandolo ulteriormente. Nel frattempo, la produzione industriale di “AI slop” continua, con estetiche iperrealistiche, corpi impossibili e contesti inventati, mentre gli utenti navigano in un mondo digitale dove distinguere reale e virtuale richiede più attenzione di un detective in un noir anni Cinquanta.
Il cocktail letale è servito: una combinazione di incentivi economici, algoritmi che premiano lo shock, strumenti di generazione sempre più raffinati e una cultura digitale pronta a condividere il contenuto senza chiedersi se sia vero. Nel frattempo, le donne diventano un bersaglio globale, anche quando non esistono, in un circolo vizioso di sessualizzazione artificiale, algoritmi e clickbait.
Il messaggio è chiaro: l’intelligenza artificiale non è neutrale. Riflette ciò che già cova nella società, amplifica le paure e i pregiudizi, e li trasforma in video virali pronti per monetizzare attenzione e ignoranza. La domanda che resta aperta è chi deciderà cosa fermare, quando il confine tra reale e sintetico diventa un miraggio, e quanto la cultura digitale è disposta a tollerare che la misoginia diventi un algoritmo