Perché nessuno ha fermato Grok. Non perché sia una questione filosofica complessa o un dilemma etico degno di un seminario universitario. È una domanda brutale, elementare, quasi imbarazzante nella sua semplicità. Un sistema di intelligenza artificiale viene usato su larga scala per generare immagini sessuali non consensuali, incluse rappresentazioni che secondo diverse giurisdizioni configurano materiale di abuso minorile. Tutti concordano che sia sbagliato. Tutti dichiarano di essere indignati. Nessuno interviene in modo efficace.
Il quadro che emerge non è quello di un errore tecnico ma di una scelta politica precisa, anche se nessuno ha il coraggio di chiamarla così.Grok non è un bug sfuggito al controllo di qualche ingegnere distratto. È un prodotto, integrato in una piattaforma globale, promosso come simbolo di libertà espressiva algoritmica. Il fatto che venga usato per spogliare digitalmente donne reali, spesso senza consenso e che secondo organizzazioni indipendenti venga sfruttato anche per generare materiale illegale, non è un effetto collaterale imprevedibile. Era ovvio. Era noto. Era stato anticipato da anni di precedenti nel mondo dei deepfake. Dal 2017 in poi, chiunque seguisse seriamente il settore sapeva esattamente dove saremmo arrivati.
Il punto interessante è che ci troviamo davanti al caso più facile possibile per un intervento regolatorio. Non stiamo discutendo di bias statistici sottili o di opacità dei modelli neurali. Non stiamo litigando su quale dataset sia più rappresentativo. Stiamo parlando di immagini sessuali non consensuali e di minori. Una linea che, a parole, nessun governo occidentale contesta. Eppure quella linea viene attraversata migliaia di volte ogni ora, sotto gli occhi di tutti, senza conseguenze reali.
La Commissione Europea dice che è illegale. Il governo britannico invita le autorità a usare i loro poteri. Il Dipartimento di Giustizia americano assicura che prende la questione molto sul serio. Dichiarazioni perfette per un comunicato stampa, inutili per chi subisce il danno. Il diritto, in questo caso, arriva sempre dopo. Dopo che l’immagine è stata generata. Dopo che è stata condivisa. Dopo che l’umiliazione è diventata permanente e indicizzabile.Il problema strutturale è la combinazione letale tra lentezza legislativa e asimmetria di potere. Le leggi, quando arrivano, sono pensate per un mondo che non esiste più. Il TAKE IT DOWN Act negli Stati Uniti entrerà in vigore mesi dopo che il problema è esploso pubblicamente. Nel Regno Unito si parla di vietare strumenti di nudità generativa, ma senza un testo normativo concreto. Otto anni di deepfake pornografici non sono bastati per preparare un sistema di enforcement credibile. Otto anni sono un’era geologica per l’intelligenza artificiale, un battito di ciglia per la politica.
Poi c’è la questione che nessuno ama affrontare davvero. Chi ha paura di essere punito. Una legge funziona solo se chi può violarla teme le conseguenze. Quando dall’altra parte c’è l’uomo più ricco del mondo, o una piattaforma con centinaia di milioni di utenti, le multe diventano un costo operativo. Le cause legali arrivano tardi e si risolvono con transazioni che non cambiano i comportamenti. Il messaggio implicito è devastante nella sua chiarezza: vai avanti, al massimo pagherai qualcosa.
La responsabilità delle piattaforme viene deliberatamente annebbiata da un dibattito sterile. È colpa dello strumento o dell’utente. È la domanda preferita di chi vuole guadagnare tempo. Dal punto di vista tecnologico la risposta è ovvia. Se costruisci un sistema che abbassa drasticamente il costo di produzione di un danno, sei parte del problema. Nessuno accetterebbe un’azienda che vende armi automatiche senza sicure sostenendo che il grilletto lo preme l’utente. Nell’AI generativa, questa logica viene improvvisamente sospesa.
xAI ha introdotto alcune limitazioni, come l’accesso a pagamento, presentate come misure di responsabilizzazione. In realtà è un filtro economico, non etico. Rendere tracciabili gli abusi non li impedisce. Li monetizza. È una differenza sottile ma fondamentale. Il messaggio di fondo resta invariato: puoi farlo, basta pagare.
Il fallimento normativo dell’intelligenza artificiale non è quindi un incidente. È il risultato di una scelta collettiva di non disturbare l’innovazione, anche quando l’innovazione produce danni evidenti e sistemici. È la versione aggiornata del vecchio mantra move fast and break things, solo che ora le cose che si rompono sono persone reali, reputazioni, vite private. E quando tra queste ci sono minori, il silenzio diventa assordante.
Tutti concordano sul fatto che il materiale di abuso sessuale sia inaccettabile. Non esistono lobby che lo difendano apertamente. Non esiste una guerra culturale su questo punto. Eppure è proprio qui che i governi mostrano la loro massima impotenza. Se non riesci a intervenire nel caso più ovvio, come pensi di gestire i prossimi. I modelli agentici autonomi. Le AI che prendono decisioni finanziarie. I sistemi militari semi autonomi. La centralizzazione del potere cognitivo in poche infrastrutture private.Il caso Grok dovrebbe essere studiato come esempio da manuale di ciò che accade quando la regolamentazione rincorre la tecnologia invece di anticiparla. È una lezione costosa, pagata da chi non ha voce né potere contrattuale. Donne esposte pubblicamente senza consenso. Minori trasformati in output statistici. Tutto perfettamente evitabile, se solo qualcuno avesse deciso che questa volta l’innovazione poteva aspettare.
La domanda iniziale resta sospesa, come un’accusa. Perché nessuno ha fermato Grok. La risposta, per quanto scomoda, è che fermarlo avrebbe richiesto un atto di forza politica reale, non un tweet indignato. Avrebbe richiesto dire no a un attore troppo potente, troppo visibile, troppo intoccabile. E questo, nel capitalismo tecnologico contemporaneo, è ancora considerato più pericoloso del danno che si lascia proliferare.