Il report Disrupting Harm Phase 2 è un colpo allo stomaco : almeno 1,2 milioni di bambini nel mondo hanno avuto le proprie immagini trasformate in materiale sessuale artificiale nell’ultimo anno. Non foto rubate. Non video scambiati incautamente. Volti normalissimi, presi da una foto di classe, da un profilo social, da un’immagine pubblica. Il resto lo ha fatto l’algoritmo.

Il dato più inquietante non è solo quantitativo. In alcuni Paesi un bambino su venticinque risulta potenzialmente colpito. Tradotto in modo brutale ma efficace: una classe scolastica. Non una minoranza patologica. Non un’anomalia statistica. Una media. L’idea stessa di vittima cambia forma. Non serve più il contatto. Non serve più l’adescamento. Non serve neppure che il bambino sappia di essere stato colpito. L’abuso diventa asincrono, silenzioso, industriale.

UNICEF usa una frase che dovrebbe essere scolpita sopra ogni data center che allena modelli generativi: “Deepfake abuse is abuse”. Nessun sofisma tecnico, nessuna scappatoia lessicale. Il materiale sessualizzato di minori, anche se generato artificialmente, è abuso sessuale su minori. Punto. Il resto è lobbying semantico.

Il salto tecnologico è noto a chiunque lavori seriamente con i modelli generativi. Bastano pochi frame, un volto ben definito, un modello diffusion addestrato su dataset sporchi o deliberatamente permissivi, e il risultato è indistinguibile dal reale. Non parliamo più di collage malfatti o di Photoshop anni Novanta. Parliamo di immagini fotorealistiche che superano senza fatica la soglia psicologica del credibile. Per un adulto è già devastante. Per un minore è una violazione permanente dell’identità.

C’è un passaggio del report che merita attenzione strategica. La ricerca si basa su oltre 11.000 bambini in 11 Paesi, con metodologia da indagine nazionale rappresentativa. Non è attivismo. È statistica. In diversi contesti fino a due terzi dei minori dichiarano di temere che l’intelligenza artificiale possa essere usata per creare immagini sessuali false che li riguardano. Non è paranoia. È consapevolezza precoce di vivere in un ambiente ostile.

Qui emerge una verità scomoda per l’industria tech. I bambini stanno capendo prima dei legislatori dove va il rischio. Gli adulti discutono di prompt, open source e libertà di innovazione. I minori temono che la loro faccia diventi una merce pornografica senza consenso. Il mismatch è imbarazzante.

Il caso Grok, l’AI di X, è emblematico non tanto per la piattaforma in sé, quanto per il cortocircuito culturale che rappresenta. Le perquisizioni negli uffici parigini di X e la convocazione di Elon Musk non sono un incidente isolato. Sono il segnale che l’Europa ha iniziato a considerare i modelli generativi non come giocattoli linguistici ma come infrastrutture potenzialmente criminogene. La stima del Center for Countering Digital Hate parla di oltre 23.000 immagini sessualizzate di minori prodotte in undici giorni. Non è un bug. È una feature non governata.

Nel frattempo l’Australia registra un raddoppio delle segnalazioni legate all’uso di AI per creare immagini sessuali non consensuali, inclusi casi di potenziale sfruttamento minorile. Il Regno Unito individua quasi 14.000 immagini sospette su un singolo forum del dark web in un mese. La Corea del Sud segnala un aumento di dieci volte dei reati sessuali legati ai deepfake tra il 2022 e il 2024, con un dettaglio che dovrebbe far tremare i polsi: la maggior parte dei sospettati sono adolescenti. La democratizzazione dell’abuso è già avvenuta.

Qui il tema non è solo repressione penale. È architettura del rischio. UNICEF chiede di estendere in modo esplicito la definizione di CSAM ai contenuti generati dall’AI e di criminalizzarne creazione, possesso e distribuzione. È il minimo sindacale. Senza questa estensione, ogni modello generativo resta una zona grigia legale in cui il danno è reale ma la responsabilità è nebulosa.

C’è poi il nodo che l’industria preferisce evitare: safety by design. Non come slogan da conferenza, ma come requisito strutturale. Valutazioni di impatto sui diritti dei minori prima del rilascio dei modelli. Test di sicurezza pre release anche per i modelli open source. Tracciabilità dei dataset. Limitazioni esplicite sulle capacità di generazione sessuale. Non è censura. È ingegneria responsabile.

Chi lavora seriamente sull’AI sa che ogni modello incorpora una visione del mondo. Anche quando si finge neutrale. Decidere di non implementare barriere significa fare una scelta politica, non tecnica. Significa accettare che il danno collaterale sia il prezzo dell’innovazione. Quando quel danno riguarda i minori, la narrativa libertaria smette di essere affascinante e diventa cinica.

Il passaggio più destabilizzante del documento UNICEF è forse questo: il diritto alla protezione può essere violato senza che il bambino mandi un messaggio o sappia che è successo. Qui cade l’intero impianto culturale basato sull’educazione digitale come unica difesa. Non basta insegnare a non condividere immagini intime se qualcun altro può crearle dal nulla. La prevenzione deve spostarsi dall’utente alla piattaforma. Dall’individuo all’infrastruttura.

L’Europa, con l’indagine formale della Commissione su X per possibile violazione delle regole digitali, sta provando a muoversi in questa direzione. Alcuni Paesi asiatici hanno scelto la via drastica, vietando direttamente Grok. Altri aprono istruttorie. Il quadro è frammentato, come sempre. Ma il trend è chiaro. L’AI generativa non è più un territorio anarchico.

Chi guida aziende tecnologiche oggi deve porsi una domanda scomoda ma inevitabile. Se il mio modello può generare CSAM, anche solo potenzialmente, sono un fornitore di tecnologia o un moltiplicatore di rischio sistemico. La risposta non può essere affidata a un disclaimer.

UNICEF chiude con un avvertimento che suona meno come una raccomandazione e più come un atto d’accusa: i bambini non possono aspettare che la legge recuperi il ritardo. È una frase che dovrebbe risuonare nelle board room, nei team di ricerca e nei ministeri. Perché questa non è una guerra contro l’AI. È una guerra contro l’idea che l’innovazione valga più dell’infanzia. E quella, per una società che si definisce avanzata, dovrebbe essere una battaglia già decisa.

Unicef Statement

https://www.unicef.org/mena/press-releases/deepfake-abuse-abuse