Siamo sull’orlo di una rivoluzione digitale che i più sottovalutano, una di quelle che nella storia tecnologica avviene una volta ogni generazione e poi diventa impossibile da ignorare. Due cose sono già chiare: i bot tradizionali stanno per diventare relicti nella memoria del cybersecurity folklore e le difese attuali contro operazioni di manipolazione digitale sono obsolete prima ancora di aver completato l’ultimo aggiornamento.
Un rapporto pubblicato su Science dalla crème académica globale — con contributi da Oxford, Cambridge, UC Berkeley, NYU e il Max Planck Institute — suona un allarme che non può più essere ignorato. Il documento smonta la narrazione rassicurante secondo cui le interferenze digitali sono fenomeni episodici legati a elezioni o a picchi emotivi pubblici. La nuova realtà, scrivono questi ricercatori, vede la diffusione di campagne di disinformazione sostenute nel tempo, orchestrate da insiemi di agenti di intelligenza artificiale che imitano il comportamento umano, si adattano in tempo reale e richiedono un intervento umano minimo. Siamo entrati in una fase in cui la manipolazione digitale persistente non è più un rischio teorico ma una minaccia concreta e crescente.
Daniel Thilo Schroeder, research scientist presso SINTEF, un importante centro norvegese di ricerca tecnologica, offre una visione che scuote: ciò che fino a ieri sembrava fantascienza sta già prendendo forma. Schroeder osserva che “l’uso di IA nelle operazioni di influenza per generazione di contenuti, gestione di personae e targeting è già attivo”. Va detto con chiarezza: non è qualcosa che potrebbe accadere domani. Sta accadendo ora, in forme embrionali, ma con dinamiche evolutive estremamente rapide.
Il concetto di sciame di IA non è un semplice vezzo linguistico. In robotica e intelligenza artificiale collettiva, uno sciame è un gruppo di agenti autonomi che collaborano per risolvere problemi o raggiungere obiettivi in modo più efficiente di un singolo sistema monolitico. Pensate a uno stormo di uccelli che si muove in perfetta armonia senza un leader visibile, oppure a un banco di pesci che si sposta istintivamente per evitare un predatore. Traslato nel dominio digitale, uno sciame può generare contenuti, gestire decine di migliaia di account, rispondere dinamicamente a segnali esterni e, soprattutto, farlo in modo coordinato e indifferenziabile da interazioni umane autentiche.
Il rapporto evidenzia qualcosa di cruciale: la maggior parte delle difese attuali non sono progettate per affrontare comportamenti coordinati e adattivi. La cybersecurity mainstream è ancora incardinata su modelli di rilevazione che guardano alle singole anomalie di contenuto o ai botnet “rumorosi”, quelli che pubblicano spam in massa o diffondono link malevoli riconoscibili. Ma la sofisticazione delle nuove operazioni di manipolazione sta nel variare il linguaggio, nel mantenere comportamenti che imitano l’evoluzione naturale di un utente reale e nel tessere narrazioni persistenti che attraversano mesi o anni.
In termini pratici, questo significa che un cluster di agenti IA potrebbe sostenere una specifica narrativa politica, economica o culturale non solo durante una campagna elettorale, ma in modo continuo, rafforzandola, adattandola e rinnovandola in base alle reazioni degli utenti e ai mutamenti del contesto. Il mito della “botnet rumorosa e farmaceutica” lascia il posto a un nuovo paradigma: reti di influenza digitale che si comportano come comunità umane dinamiche.
Schroeder sottolinea un altro punto debole fondamentale: la mancanza di trasparenza e accesso ai dati. Senza un accesso coerente e privacy-preserving ai dati delle piattaforme social, né un auditing indipendente, gli esperti esterni faticano a misurare e rivelare queste operazioni in modo affidabile. In parole povere, stiamo combattendo un nemico che conosciamo a malapena e il cui armamentario è mimetico. È una sfida epistemica prima ancora che tecnologica.
Se guardiamo oltre il white paper accademico, troviamo esempi reali e preoccupanti. Nel 2023, l’indagine del Senate Intelligence Committee negli Stati Uniti ha rivelato attività sofisticate di disinformazione orchestrate non solo da stati-nazione ma anche da network privati con scopi economici e politici cupi. Molti di questi network utilizzavano tecniche di generazione automatica di contenuti che oggi sarebbero impossibili da distinguere dall’output umano medio basandosi solo su segnali di testo. Il caso della “Operazione Ghostwriter”, attribuita a entità russe e scoperta in Europa orientale, mostra come narrazioni false possano penetrare il discorso pubblico con un’efficacia sorprendente, sfruttando account apparentemente legittimi e relazioni sociali tributarie. Queste operazioni non sono sciami nel senso di intelligenze artificiali completamente autonome, ma mostrano la traiettoria di evoluzione: l’integrazione di IA generativa, gestione di persona e targeting comportamentale. Se un’operazione come Ghostwriter del 2023 fosse stata eseguita con infrastrutture di IA swarm, nessun sistema di difesa tradizionale l’avrebbe rilevata. E questo è documentato.
Nel frattempo, giganti del web come Meta, Google e TikTok si difendono con sofisticati filtri di moderazione e reti neurali addestrate a rilevare anomalie. Questi sistemi sono formidabili nel bloccare spam evidente, deepfake mal confezionati e profili palesemente falsi. Ma sono sorprendentemente vulnerabili di fronte a cluster che variano contenuti, stile linguistico e tempistiche di pubblicazione per eludere pattern riconoscibili. È come cercare di catturare elefanti con una rete da farfalle: l’approccio non è adeguato alla scala evolutiva del problema.
Un altro aspetto fondamentale è la persistenza narrativa. Le campagne orchestrate da sciami di IA non cercano di “vincere una battaglia” in una singola esplosione di attività. Cercano di coltivare percezioni, di costruire gradualmente consenso, di inserire micro-influenze che, sommate nel tempo, modellano atteggiamenti sociali. Questo richiede un modello temporale molto più lungo di quello per cui le difese sono progettate. Non si tratta più di identificare un picco anomalo nel volume di contenuti. Si tratta di riconoscere andamenti narrativi sottili e coordinati che si evolvono lentamente, come correnti oceaniche che alla fine plasmano costantemente la spiaggia.
Ora consideriamo lo scenario di medio termine. Strumenti di agent tooling sempre più raffinati, come framework per la creazione collaborativa di agenti IA, stanno emergendo a ritmo vertiginoso. Questi strumenti permetteranno a sviluppatori di combinare modelli linguistici, modelli di comportamento e meccanismi di apprendimento continuo in pacchetti orchestrabili. Il risultato? Sciami di IA capaci non solo di generare contenuti ma di apprendere dal contesto, di mantenere coerenza multi-piattaforma, di rispondere a segnali esterni e di ridurre la supervisione umana a mera formalità. Più che botnet invisibili, parleremo di ecosistemi di influenza digitale autonomi.
Per affrontare questa evoluzione serve una rivoluzione nelle difese: non più filtri basati su pattern statici, ma sistemi di analisi comportamentale adattiva, audit indipendenti, trasparenza dei dati e collaborazione internazionale. Il rischio di lasciare il problema nelle mani dei singoli proprietari di piattaforme è evidente: interessi economici e logiche di engagement non sempre convergono con l’interesse pubblico della comunità digitale globale.
Siamo davanti a una sfida che non è solo tecnologica, ma civica e geopolitica. Chi controlla gli strumenti di narrazione controlla — in parte — la percezione della realtà collettiva. Sciami di IA autonomi possono farlo meglio di quanto un esercito di troll umani abbia mai potuto sperare di fare. La domanda non è più se questo futuro arriverà, ma quanto rapidamente e con quali contromisure lo affronteremo. La prossima generazione di operazioni di disinformazione non sarà rumorosa e individuabile, ma sottile, adattiva e, in molti casi, indistinguibile dal tessuto stesso della conversazione umana online. La partita è appena iniziata.
Trovate il report qui: https://www.science.org/doi/10.1126/science.adz1697