L’indagine formale avviata dalla Commissione Europea contro X per l’integrazione del chatbot Grok segna esattamente quel momento. Non è una schermaglia regolatoria né l’ennesimo capitolo della saga Musk contro Bruxelles. È un caso di scuola su come l’intelligenza artificiale generativa, quando viene spinta in produzione senza adeguati freni, possa trasformarsi da prodotto virale a rischio sistemico.
Deepfake sessualizzati, responsabilità delle piattaforme, contenuti illegali e mitigazione del rischio. La differenza, questa volta, è che non si parla di teoria. Si parla di immagini generate. Di persone reali. Di donne e minori. E di un’Unione Europea che ha deciso di non limitarsi a rilasciare comunicati indignati.
Grok, il chatbot sviluppato da xAI e integrato sempre più profondamente dentro X, è stato presentato come l’anti ChatGPT, l’AI meno filtrata, più irriverente, più allineata con l’idea muskiana di free speech assoluto. Un posizionamento di marketing intelligente, quasi geniale, in un mercato saturo di modelli prudenti e risposte sterilizzate. Il problema è che l’assenza di guardrail non è una feature quando consente la generazione di immagini sessualizzate di persone reali, inclusi minori. A quel punto diventa un moltiplicatore di danni.
La Commissione Europea non sta indagando se Grok sia spiritoso o politicamente scorretto. Sta valutando se X abbia correttamente valutato e mitigato i rischi associati alle capacità di generazione e modifica delle immagini di Grok all’interno dell’Unione. È una distinzione fondamentale che molti commentatori, soprattutto oltreoceano, fingono di non capire. Il Digital Services Act non è una legge sulla censura. È una legge sulla responsabilità.
Il DSA impone alle Very Large Online Platforms di dimostrare di avere processi, controlli e sistemi adeguati per prevenire la diffusione di contenuti illegali. Non dopo. Prima. La logica è industriale, non morale. Se metti sul mercato un sistema che può essere facilmente abusato per produrre deepfake sessualizzati, la domanda regolatoria non è se lo hai fatto intenzionalmente, ma se hai fatto abbastanza per impedirlo.
Qui emerge il primo cortocircuito strategico di X. L’integrazione profonda di Grok è avvenuta in una fase in cui il team trust and safety era stato ridimensionato, per usare un eufemismo. Alcuni dei dipendenti che avevano espresso preoccupazioni sull’uso improprio della generazione di immagini sono stati licenziati. È una scelta aziendale legittima, certo. Ma diventa un boomerang quando un regolatore chiede conto dei processi di risk assessment.
L’argomento difensivo classico, ovvero che gli utenti abusano di qualsiasi tecnologia, regge fino a un certo punto. Poi si scontra con una realtà semplice. Se sai che una funzione verrà abusata e la lanci comunque senza contromisure robuste, non sei neutrale. Sei negligente. Il DSA è costruito esattamente su questo principio, ed è qui che la keyword indagine UE X Grok DSA smette di essere un titolo e diventa una minaccia concreta.
C’è poi l’elemento politico, che Musk e l’amministrazione Trump amano agitare come una bandiera. L’Europa censura. L’Europa odia l’innovazione. L’Europa vuole zittire le piattaforme americane. Una narrazione efficace per i social, molto meno per le aule regolatorie. Perché lo stesso DSA è stato applicato a più piattaforme, con multe e richiami che non hanno nulla di ideologico. X, tra l’altro, è già sotto indagine dal 2023 e ha già pagato 140 milioni di dollari per la gestione ingannevole delle spunte blu. Non esattamente un rapporto vergine.
L’estensione dell’indagine alla componente di raccomandazione basata su Grok aggiunge un ulteriore livello di complessità. Non si tratta solo di ciò che l’AI genera, ma di come questi contenuti vengono amplificati. L’AI che crea è pericolosa. L’AI che spinge e distribuisce è esplosiva. Qui l’Europa guarda con attenzione chirurgica, perché la combinazione tra generazione e ranking algoritmico è il vero cuore del potere delle piattaforme.
Henna Virkkunen, vicepresidente esecutiva della Commissione per la sovranità tecnologica e la democrazia, ha usato parole che nel linguaggio di Bruxelles equivalgono a un avviso di tempesta. I deepfake sessualizzati di donne e bambini sono una forma di violenza e degradazione inaccettabile. Non è solo una condanna morale. È una definizione giuridica implicita di danno. E quando un danno è riconosciuto, il passo verso la sanzione è breve.
Le sanzioni potenziali non sono simboliche. Fino al sei percento del fatturato globale annuo. Per una società che vive già una fase finanziaria delicata, non è una multa da archiviare come costo operativo. È un messaggio agli investitori, ai partner commerciali e ai regolatori di mezzo mondo. Il fatto che i processori di pagamento abbiano iniziato a preoccuparsi seriamente del fenomeno dei deepfake sessualizzati dopo l’esplosione del caso Grok è un dettaglio che molti ignorano, ma che nei corridoi conta più di mille tweet.
C’è un’ironia sottile in tutto questo. Musk ha spesso accusato le piattaforme rivali di ipocrisia e moderazione selettiva. Ha promesso trasparenza, apertura, meno filtri. Ora si trova a dover dimostrare di avere sistemi di controllo sufficientemente maturi per un’AI che, per design, è stata spinta verso il limite. Il confine tra audacia tecnologica e irresponsabilità operativa è sottile, e l’Europa ha deciso che Grok lo ha superato.
Dal punto di vista strategico, questo caso sarà studiato a lungo. Non solo per capire come si chiuderà l’indagine, ma per osservare come le piattaforme integreranno l’AI generativa nei prossimi anni. L’era del lancio rapido seguito da scuse pubbliche sta finendo. I regolatori pretendono valutazioni ex ante, documentazione, audit interni. In altre parole, governance. Una parola che a molti founder fa venire l’orticaria, ma che diventa inevitabile quando l’AI entra nella vita delle persone reali.
La vera domanda non è se X verrà multata. È se il settore ha finalmente compreso che l’intelligenza artificiale non è più un giocattolo da laboratorio né un semplice acceleratore di engagement. È infrastruttura sociale. E come tale, produce esternalità che qualcuno deve gestire. Se le aziende scelgono di non farlo, lo faranno i governi. Con buona pace dei manifesti libertari scritti in 280 caratteri.
In questo senso, l’indagine UE X Grok DSA non è un attacco a Musk. È un avvertimento a tutto il mercato. L’AI generativa è entrata nella fase adulta. E come ogni tecnologia matura, non viene più giudicata per le promesse, ma per i danni che è in grado di prevenire. Chi continua a confondere assenza di regole con innovazione rischia di scoprire, molto presto, che la multa è solo l’inizio del problema.
Annuncio EU: https://ec.europa.eu/commission/presscorner/detail/en/ip_26_203