La propaganda di nuova generazione non ha più bisogno di troll umani che digitano slogan preconfezionati da un oscuro call center di San Pietroburgo. Oggi basta un operatore con un computer domestico e un paio di modelli linguistici open source per costruire interi ecosistemi di disinformazione automatizzata. Queste reti di entità sintetiche conversano tra loro, modulano il tono, reagiscono al contesto e apprendono dalle interazioni. Sono in grado di testare narrazioni, misurare engagement e adattarsi come un organismo vivente. Il risultato è un sistema di propaganda autoalimentato che si espande con la stessa logica di un virus digitale.
La differenza, rispetto alle campagne coordinate del passato, è che l’elemento umano non è più il collo di bottiglia. Gli agenti artificiali generano messaggi coerenti, persuasivi e perfettamente calibrati per colpire bias cognitivi specifici. Possono apparire su forum marginali, in community locali o in dibattiti internazionali, sempre con un’identità plausibile e un linguaggio naturale. Ciò che un tempo richiedeva settimane di coordinamento e centinaia di persone oggi può essere gestito da un software che, ironia della sorte, non dorme mai.
Mentre le democrazie si interrogano sul bilanciamento tra libertà e sicurezza, regimi autoritari come Cina e Russia osservano con un certo compiacimento. Possono sperimentare senza vincoli etici, controllando rigidamente i propri ecosistemi digitali e liberando, all’estero, sciami di agenti informativi che non hanno nulla da perdere. La loro forza è l’asimmetria. Le società aperte devono proteggere il diritto all’espressione e, al tempo stesso, difendersi da manipolazioni che sfruttano proprio quella libertà come arma. È un gioco perverso dove chi crede nella trasparenza combatte con una mano legata dietro la schiena.
Negli Stati Uniti, la chiusura dell’ufficio contro la disinformazione appare quasi un segno dei tempi. Proprio mentre le infrastrutture digitali diventano terreno di guerra cognitiva, si decide di smantellare i pochi strumenti di difesa esistenti. L’Europa, con la sua macchina regolatoria, tenta invece di imporre vincoli alle piattaforme attraverso il Digital Services Act, ma la velocità della tecnologia rende ogni norma obsoleta prima ancora di entrare in vigore. È come inseguire una lepre con un trattore burocratico.
Pensare di contenere la propaganda AI con etichette o watermark è una pia illusione. I modelli open source si moltiplicano, gli strumenti di uncensoring circolano liberamente e chi vuole manipolare il discorso pubblico non ha bisogno di chiedere permessi a nessuno. Gli stessi sistemi di verifica digitale, come gli ID univoci per gli utenti, sollevano dilemmi ancora più profondi: chi controlla il controllore? Quale prezzo siamo disposti a pagare per distinguere l’umano dal sintetico?
Gli esperti di sicurezza informativa suggeriscono una svolta concettuale. Non serve più inseguire il singolo contenuto falso, ma mappare il comportamento coordinato. Individuare pattern linguistici che si ripetono in più lingue, tracciare la simultaneità di certi messaggi, riconoscere l’eco artificiale che amplifica una narrativa prima che diventi virale. In altre parole, spostare l’attenzione dall’oggetto all’intenzione.
Il futuro della difesa democratica passa per infrastrutture di analisi in tempo reale, cooperazione multilaterale e capacità di contro-narrazione strategica. Non si tratta solo di rimuovere contenuti, ma di capire come la realtà stessa viene costruita in rete. Le campagne di influenza basate sull’intelligenza artificiale non mirano più a convincere, ma a confondere. A erodere la fiducia collettiva nella possibilità di distinguere il vero dal falso.
Ogni mese che passa il costo della menzogna scende e la sua qualità percettiva aumenta. Gli algoritmi imparano a modulare empatia, sarcasmo, ironia. Creano emozioni sintetiche più convincenti di quelle umane. Il rischio non è solo elettorale, ma epistemico: un mondo dove il dubbio sistematico diventa la norma, e la verità, semplicemente, non vale più la fatica di essere cercata.
La finestra di opportunità per costruire difese efficaci si sta chiudendo più rapidamente di quanto i governi ammettano. Le elezioni del 2026, negli Stati Uniti e in Europa, rischiano di essere il primo grande stress test per le democrazie occidentali nell’era della propaganda autonoma. Senza un cambio di paradigma, combatteremo con strumenti pensati per un mondo che non esiste più, mentre le macchine dell’inganno perfezionano se stesse a ogni ciclo di addestramento.
La domanda non è più se la propaganda AI possa influenzare la società, ma quanto tempo ci resta prima che la distinzione tra conversazione e manipolazione diventi irrilevante. Il vero paradosso è che la stessa intelligenza artificiale che prometteva di ampliare la conoscenza collettiva sta ora riscrivendo il concetto stesso di verità pubblica. Forse il nemico non è la macchina, ma la nostra lentezza nel riconoscere quanto velocemente stia imparando a parlare come noi.