Puzza di marcio quando una piattaforma digitale riesce a trasformare la violazione sistematica del consenso in una feature tollerata, monetizzata e difesa con comunicati stampa dal sapore burocratico. Le deepfake non consensuali non sono più una deviazione marginale del web oscuro, sono diventate un prodotto di massa, integrate nell’esperienza utente, distribuite tramite app ufficiali e protette dal silenzio complice di chi governa gli store digitali globali. X, con Grok incastonato come motore creativo, è oggi il caso di scuola di questa degenerazione industriale.

Il punto non è morale, è strutturale. Quando ventotto organizzazioni per i diritti civili, dai movimenti femministi alle watchdog tecnologiche, scrivono lettere aperte a Tim Cook e Sundar Pichai chiedendo loro di “farsi crescere una spina dorsale”, non stanno invocando sensibilità etica. Stanno denunciando una violazione palese delle stesse policy che Apple e Google sbandierano come garanzia di sicurezza per utenti, famiglie e inserzionisti. Le deepfake non consensuali, soprattutto quando coinvolgono minori o simulano nudità e atti sessuali, rientrano senza ambiguità nelle categorie di NCII e CSAM. Criminali. Punto.

Eppure Grok resta sugli store. X resta sugli store. L’ipocrisia qui è matematica. Apple e Google rimuovono app per molto meno, a volte per un link sbagliato o una funzione borderline. Ma quando il problema è sistemico, redditizio e politicamente scomodo, la macchina si ferma. O meglio, finge di rallentare. È il capitalismo delle piattaforme nella sua forma più pura: enforcement selettivo, indignazione a geometria variabile, responsabilità sempre spostata sull’utente finale.

X ha risposto come fanno tutte le piattaforme quando vengono colte con le mani nel vaso. Limitazioni parziali. Paywall morali. Geoblocking opportunistico. La scelta di riservare la generazione di immagini ai soli abbonati a pagamento viene presentata come misura di sicurezza, ma nella pratica è un moltiplicatore di danno. Trasforma l’abuso in servizio premium. Non lo elimina, lo rende tracciabile solo quando conviene. È come dire che il problema non è l’atto, ma il fatto che lo faccia qualcuno che non paga.

Il linguaggio ufficiale è un capolavoro di deresponsabilizzazione. Si parla di “user requests”, di “adversarial hacking”, di comportamenti imprevisti del modello. Tradotto dal gergo siliconvalleyano: non è colpa nostra, è colpa di chi usa lo strumento che abbiamo progettato esattamente per fare questo. Grok non nasce in un vuoto etico. Nasce dentro una piattaforma che ha già normalizzato la violenza simbolica, l’umiliazione pubblica e la monetizzazione dell’odio. Inserirci un generatore di immagini senza barriere reali era una scelta, non un incidente.

Il dettaglio più inquietante non è che le policy vengano violate, ma che vengano violate apertamente. Test indipendenti mostrano che anche dopo gli annunci ufficiali è ancora possibile generare immagini sessualizzate di persone reali, anche con account gratuiti. Questo significa una cosa sola: le restrizioni sono cosmetiche. Servono a produrre titoli, non a prevenire danni. Il sistema continua a funzionare come prima, con qualche frizione in più per chi non sa come formulare il prompt giusto.

Nel frattempo il Regno Unito fa quello che le big tech odiano di più: legiferare sul serio. La nuova normativa che rende penalmente rilevante la creazione di deepfake intime non consensuali segna un cambio di paradigma. Non si parla più di moderazione dei contenuti, ma di responsabilità diretta. Ofcom apre un’indagine. Il primo ministro interviene pubblicamente. X promette conformità. Una conformità che, almeno per ora, esiste più nei comunicati che nel codice.

Qui emerge il nodo strategico. Le piattaforme globali non rispondono all’etica, rispondono al rischio legale. Finché Stati Uniti e Unione Europea continueranno a trattare le deepfake non consensuali come un problema reputazionale e non come una minaccia sistemica, il comportamento delle aziende non cambierà. Gli app store sono il collo di bottiglia. Chi controlla la distribuzione controlla il mercato. Apple e Google lo sanno. Ed è proprio per questo che il loro immobilismo è politicamente rilevante.

La campagna “Get Grok Gone” non è solo un attacco a Elon Musk, anche se il personaggio rende tutto più teatrale. È un test di credibilità per l’intero ecosistema digitale. Se una app integrata che facilita la produzione di NCII e potenzialmente CSAM può restare sugli store senza conseguenze, allora le policy sono marketing, non governance. Linee guida scritte per rassicurare gli investitori, non per proteggere le persone.

C’è un’ironia tragica in tutto questo. Le stesse aziende che investono miliardi in intelligenza artificiale “responsabile”, in safety team, in ethics board e white paper autoreferenziali, tollerano un uso della tecnologia che riporta indietro di decenni il concetto di dignità digitale. La deepfake non consensuale è la pornografia del potere algoritmico. Non serve a eccitare, serve a dominare. A dimostrare che l’immagine di una persona non le appartiene più.

Dal punto di vista tecnologico il problema è risolvibile. Non completamente, ma in modo significativo. Riconoscimento di volti reali, watermarking, blocchi semantici, audit indipendenti sui modelli. Tutte soluzioni note, già applicate in contesti meno redditizi. Il fatto che non vengano implementate seriamente è una scelta di business. Riduce l’engagement. Aumenta i costi. Introduce frizione. Tutte cose che nel capitalismo dell’attenzione sono considerate peccati mortali.

Il vero rischio, però, va oltre X e Grok. Stiamo normalizzando l’idea che la violenza sintetica sia inevitabile, un effetto collaterale dell’innovazione. È una narrativa comoda, perché assolve chi costruisce i sistemi e colpevolizza chi li subisce. Ma è anche una narrativa falsa. Le tecnologie non sono neutrali. Sono il riflesso delle priorità di chi le finanzia e le distribuisce.

Quando le organizzazioni femministe parlano di “spree di spogliazione digitale di massa”, non stanno usando un’iperbole. Stanno descrivendo un fenomeno industriale. Automatizzato. Scalabile. Asimmetrico. E ogni giorno che passa senza un intervento deciso degli app store rafforza il messaggio implicito: se è sintetico, è meno reale. Se è generato da una AI, il danno conta meno.

La verità è che Apple e Google non sono arbitri neutrali. Sono gatekeeper. E come tutti i gatekeeper scelgono quando aprire e quando chiudere. Continuare a ospitare X e Grok mentre si invocano policy violate equivale a una forma di complicità strutturale. Non serve rimuovere ogni contenuto problematico per assumersi una responsabilità. Basta smettere di fingere di non vedere.

Nel mondo fisico, un prodotto che facilita un crimine viene ritirato dal mercato. Nel mondo digitale, invece, si aggiorna il blog post e si spera che il ciclo di notizie passi. Ma qualcosa sta cambiando. Le leggi britanniche, le indagini regolatorie, la pressione coordinata della società civile indicano che la fase dell’autoregolazione sta finendo. E quando finirà davvero, molti scopriranno che la vera deepfake non era l’immagine generata, ma la narrativa della responsabilità tecnologica raccontata finora.

Le deepfake non consensuali non sono un bug dell’intelligenza artificiale. Sono una feature di un modello di potere che ha deciso che il consenso è opzionale, finché non diventa un problema legale. Grok è solo il sintomo più visibile. Gli app store sono il vero campo di battaglia. E il silenzio, in questo contesto, non è neutrale. È una scelta strategica.

Petizione

Open Letter