C’è una cosa che Trump sa fare meglio di molti altri: trasformare l’indignazione morale in una clava politica. E il Take It Down Act, appena firmato con grande fanfara presidenziale, è l’ennesimo esempio. Una legge che, sulla carta, promette di proteggere le vittime di immagini intime non consensuali (NCII), comprese quelle generate da intelligenza artificiale, ma che in pratica apre le porte a una nuova stagione di censura discrezionale e abusi normativi. Il tutto condito dall’ormai familiare retorica trumpiana del “sono io la vera vittima di internet”.

Lo scenario è da manuale della demagogia: bipartisan love fest, First Lady sorridente, lacrime di genitori indignati, e big tech che fanno finta di applaudire mentre aggiornano le policy legali a suon di avvocati. Il messaggio è chiaro: nessuno potrà più diffondere “revenge porn” o deepfake a sfondo sessuale. Peccato che la legge, nel suo impianto, sia un capolavoro di ambiguità giuridica e una mina pronta a esplodere sotto i piedi di chiunque gestisca contenuti digitali.

Il cuore dell’atto è semplice quanto inquietante: criminalizzare la pubblicazione di immagini intime non autorizzate, vere o generate dall’AI, con pene fino a tre anni di carcere. Fin qui, apparentemente, tutto nobile. Ma la vera bomba è altrove: le piattaforme social avranno solo 48 ore di tempo per rimuovere i contenuti segnalati, pena l’intervento della FTC. E qui comincia il carnevale.

Le prime vittime? Paradossalmente, proprio le persone che la legge vorrebbe proteggere. Il Cyber Civil Rights Initiative, storico gruppo in prima linea contro gli abusi digitali, ha bollato la norma come un “cavallo di Troia” che finirà per danneggiare le vittime. Perché quando tutto diventa urgente, immediato, obbligatorio, l’effetto collaterale è la paralisi delle piattaforme, sommerse da segnalazioni false, vendette personali mascherate da giustizia, e il rischio concreto di rimuovere contenuti leciti pur di evitare sanzioni.

La presidente del CCRI, Mary Anne Franks, è tranchant: “La norma non dà potere reale agli individui, ma affida alla FTC un arbitrio selettivo che potrebbe anche colpire chi prova semplicemente a fare informazione o satira”. Già, perché nessuno ha spiegato come distinguere un contenuto abusivo da uno di pubblico interesse che, magari, mostra un politico in situazioni imbarazzanti.

E c’è un altro dettaglio che puzza di déjà vu autoritario: la rimozione fulminea entro 48 ore si scontra con l’uso di tecnologie che proteggono la privacy, come la crittografia end-to-end. Un servizio come Signal, che non può leggere i contenuti scambiati tra gli utenti, come farà a rimuovere una foto “abusiva”? Semplice: non lo farà. E sarà sanzionato. Il messaggio è chiaro: la privacy è tollerata solo quando non intralcia la sorveglianza normativa.

La ciliegina sulla torta l’ha messa Trump stesso, durante la cerimonia di firma, quando ha dichiarato: “Userò questa legge anche per me. Nessuno è trattato peggio di me online”. Una battuta? Forse. Ma come tutte le battute di Trump, ha il retrogusto sinistro del potere personale elevato a norma. Ecco la vera posta in gioco: l’uso di una legge moralmente inattaccabile come leva per zittire critici, rimuovere contenuti scomodi, e rafforzare il controllo politico sui canali digitali.

Il timore, espresso anche dalla Electronic Frontier Foundation e dal CDT, è che questa legge diventi un grimaldello per forzare la porta della libertà di espressione. Non perché difendere le vittime sia sbagliato — tutt’altro — ma perché costringere le piattaforme a un’azione rapida e sanzionabile, senza garanzie di verifica, significa legittimare la censura preventiva. E quando il potere normativo si salda con l’esecutivo, il rischio è che ogni contenuto possa diventare “abusivo” se lo dice il governo.

Nel frattempo, le big tech fanno finta di niente. Una legge che promette di tutelare le vittime di abusi sessuali digitali non può essere criticata pubblicamente senza apparire mostri. Ma nei corridoi legali di Meta, X e TikTok si lavora già a scenari di contenzioso, mentre si aggiornano i sistemi di moderazione automatica a colpi di machine learning e nuove policy, nel tentativo disperato di “prevedere” la prossima segnalazione tossica.

La verità è che questa legge è costruita per fallire, o meglio: per funzionare solo quando serve al potere. Come tutti gli strumenti di censura moderni, è confezionata con l’etichetta dei buoni sentimenti, ma contiene meccanismi che permettono un controllo selettivo, ambiguo, letale. Sembra protezione, è gestione dell’informazione. Sembra giustizia, è ingegneria sociale con badge governativo.

E se ti stai chiedendo se può succedere anche in Europa, la risposta è: sta già succedendo. Tra il Digital Services Act, le pressioni sul controllo dei contenuti e le battaglie legali sulle AI, l’idea che si possa “ripulire” internet da ciò che disturba i potenti sta diventando norma, non eccezione. L’America, come sempre, fa da apripista. Ma in questo caso, più che un sentiero, sembra un tunnel.

Quello dell’informazione filtrata, moderata, rimossa. Per il tuo bene, ovviamente.