In un mondo in cui la tecnologia consente di ricreare realtà alternative con un clic, X ha deciso di tracciare una linea netta: i video di conflitti armati generati dall’intelligenza artificiale, se non chiaramente etichettati come tali, non avranno più accesso ai benefici economici del Creator Revenue Sharing Program. Nikita Bier, responsabile prodotto della piattaforma, ha annunciato che chi viola questa regola subirà una sospensione di 90 giorni dal programma; la recidiva porterà a un’espulsione definitiva. Il messaggio è chiaro: durante la guerra, l’informazione autentica è vitale, e la possibilità di manipolare eventi reali con AI non può essere monetizzata senza trasparenza.

La mossa di X sembra una risposta tardiva ma necessaria a una dinamica ormai incontrollabile: video e immagini falsificate proliferano, e l’utente medio fatica a distinguere il reale dall’artificiale. La piattaforma promette di identificare i contenuti ingannevoli combinando strumenti di rilevamento AI con il fact-checking comunitario di Community Notes, cercando di affidarsi a un mix di algoritmi e crowd intelligence. Rimane però il nodo critico: il programma stesso incentiva il sensazionalismo. Più un contenuto cattura clic e interazioni, più il creatore guadagna. Così, anche senza deepfake di guerra, la tentazione di post esplosivi, indignanti o fuorvianti rimane intatta, e la monetizzazione resta un potente motore di distorsione.

Se l’obiettivo dichiarato è proteggere l’integrità informativa durante i conflitti, il passo resta parziale. L’AI continua a poter manipolare la percezione in politica, marketing e influencer economy senza particolari restrizioni; la differenza, almeno per ora, è che chi prova a fare cassa con le immagini belliche falsificate rischia la penalizzazione economica. È un approccio pragmatico, ma che lascia intatto il problema strutturale: il mix di intelligenza artificiale e incentivi economici favorisce la creazione di contenuti polarizzanti, indipendentemente dalla guerra.

L’ironia, seppur amara, sta nel fatto che mentre X mette paletti per proteggere l’informazione “sul terreno”, il resto della piattaforma resta un laboratorio di disinformazione mercificata. Chiunque abbia un minimo di dimestichezza con l’AI sa quanto sia banale creare scene credibili di conflitti o eventi tragici; la barriera economica posta da X limita solo chi cerca un ritorno diretto, ma non la diffusione virale di contenuti ingannevoli, che continuerà a prosperare su altri fronti.

Il problema di fondo non è solo tecnico, ma culturale: la piattaforma premia engagement, non verità, e la monetizzazione resta legata a quanto un contenuto suscita emozione, paura o indignazione. In questo senso, la decisione di X ha più valore simbolico che strutturale. Serve trasparenza sui video di guerra, sì, ma senza affrontare il paradigma che rende redditizio il sensazionalismo digitale, la battaglia contro la disinformazione rimane perdente.

Bier ha sottolineato che la politica riguarda “contenuti che ingannano le persone con AI durante un conflitto armato”, ma nulla cambia per la politica, la pubblicità ingannevole o i meme virali che distorcono la realtà in altri ambiti. È un limite circoscritto, quasi chirurgico, che lascia intatto l’ecosistema complessivo di manipolazione. La piattaforma prova a bilanciare responsabilità e incentivi, ma il messaggio implicito è chiaro: se vuoi fare soldi con AI, evita di mettere in scena guerre. Per tutto il resto, la corsa all’algoritmo continua.

Il nuovo regime di X, pur volendo sembrare risolutivo, è un esempio lampante di come le piattaforme social stiano giocando a rincorrere la tecnologia invece di governarla. La generazione di contenuti falsi non è un problema di singoli creatori, ma di un ecosistema che premia il sensazionalismo. Bloccare l’accesso al denaro per i deepfake bellici può sembrare una mossa morale, ma senza un cambiamento sistemico nell’algoritmo di monetizzazione e nella cultura della piattaforma, la battaglia contro la disinformazione rimane un esercizio di facciata.

Il fenomeno ha implicazioni anche per le aziende, i governi e chiunque dipenda da informazioni affidabili: l’AI non dorme, e il pubblico neppure. Controllare la monetizzazione dei contenuti è solo un primo passo; educare gli utenti a riconoscere la manipolazione, implementare verifiche più rigorose e ripensare gli incentivi economici sono sfide che nessuna sospensione di 90 giorni potrà risolvere.

In definitiva, X ha dichiarato guerra ai deepfake di guerra per tutelare la verità, ma lascia aperta una falla strutturale: il sistema premia il click, l’emozione e l’indignazione, e continua a farlo in tutti gli altri ambiti. Il risultato è un equilibrio fragile, una scenografia dove la trasparenza è obbligatoria solo quando fa comodo, e l’AI resta la sceneggiatrice più pericolosa della piattaforma.