Sia OpenAI che Meta hanno rivelato questa settimana dettagli su campagne persistenti e dannose da parte di attori legati a Cina, Israele, Russia e Iran. Questi attori hanno utilizzato i rispettivi servizi delle due aziende per diffondere disinformazione e disturbare la politica negli Stati Uniti e in altri paesi.

Nel suo ultimo rapporto trimestrale sulle minacce, pubblicato mercoledì, Meta ha sottolineato che l’IA generativa è ancora facile da rilevare in queste campagne.

“Finora, non abbiamo visto tattiche innovative guidate dall’IA generativa che ostacolino la nostra capacità di interrompere le reti avversarie dietro di esse,” ha dichiarato il gigante dei social media.

Sebbene le foto generate dall’IA siano ampiamente utilizzate, Meta ha aggiunto che i deepfake politici—una grande minaccia globale, secondo molti esperti—non sono comuni.

“Non abbiamo visto attori minacciosi usare media fotorealistici generati dall’IA di politici come tendenza più ampia in questo momento,” osserva il rapporto.

Da parte sua, OpenAI ha dichiarato di aver costruito difese nei suoi modelli di IA, collaborato con partner per condividere informazioni sulle minacce e sfruttato la propria tecnologia IA per rilevare e interrompere attività dannose.

“I nostri modelli sono progettati per imporre attrito agli attori minacciosi,” ha riferito la compagnia ieri.

“Li abbiamo costruiti con la difesa in mente.” OpenAI ha affermato che i suoi sistemi di sicurezza dei contenuti si sono dimostrati efficaci, rifiutando di generare alcune delle richieste, e ha vietato gli account associati alle campagne identificate, condividendo i dettagli pertinenti con partner industriali e forze dell’ordine per facilitare ulteriori indagini.

Le rivelazioni di OpenAI includono operazioni di influenza occulta descritte come “tentativi ingannevoli di manipolare l’opinione pubblica o influenzare i risultati politici senza rivelare la vera identità o le intenzioni degli attori dietro di esse.

Utilizzando le informazioni raccolte da queste campagne, OpenAI ha approfondito la valutazione dell’impatto delle operazioni di disinformazione e classificato le loro tecniche per migliorare le contromisure future.

Nessuna delle campagne identificate ha ottenuto un punteggio superiore a 2 su una scala di 1 a 6, dove il punteggio più alto rappresenta campagne che hanno raggiunto autentici pubblici su più piattaforme.

Secondo OpenAI, almeno cinque campagne diverse hanno usato i suoi modelli per creare testi diffusi su piattaforme come Telegram, Twitter, Instagram, Facebook e forum online, oltre ad altri siti web. Meta, nel frattempo, ha riportato contenuti generati dall’intelligenza artificiale insieme ad altri gruppi segnalati per “comportamento coordinato non autentico“.

Ecco alcune campagne specifiche evidenziate dalle due aziende:

La minaccia russa

Una campagna russa chiamata “Bad Grammar” ha utilizzato i sistemi di OpenAI per generare commenti in più lingue postati su Telegram, mirando a pubblici in Russia, Ucraina, Stati Uniti, Moldova e Stati baltici.

I commenti trattavano temi come l’invasione russa dell’Ucraina, la politica e gli eventi attuali. Un’altra operazione persistente russa, chiamata “Doppelganger,” ha usato ChatGPT per generare articoli, post sui social media e commenti che ritraevano la Russia in una luce positiva mentre denigravano l’Ucraina, gli Stati Uniti e la NATO.

Misinformazione da Israele

Una società privata israeliana chiamata STOIC ha lanciato un’operazione soprannominata “Zero Zeno” da OpenAI, che ha utilizzato i modelli di IA per generare commenti incorporati in tattiche di disinformazione più ampie mirate a Europa e Nord America. Meta ha rilevato che gli account di questa rete si spacciavano per locali nei paesi target, inclusi studenti ebrei, afroamericani e cittadini “preoccupati,” postando principalmente in inglese sul conflitto Israele-Hamas.

Sforzi cinesi di “Spamouflage”

La campagna “Spamouflage” della Cina ha utilizzato i modelli linguistici di OpenAI per attività come il debugging del codice e la generazione di commenti in varie lingue per diffondere narrazioni sotto la copertura dello sviluppo di software per la produttività. Meta ha rilevato post negativi sul governo indiano e su temi come la comunità Sikh e il movimento Khalistan.

Operazione iraniana

Una campagna iraniana di lunga data, conosciuta come l’International Union of Virtual Media (IUVM), è stata identificata per l’abuso delle capacità di generazione di testo di OpenAI per creare post e immagini multilingue che supportano punti di vista pro-Iran, anti-USA e anti-Israele.

Questi sviluppi mostrano come le tecnologie di IA siano diventate strumenti potenti nelle mani di attori statali e non statali per condurre campagne di disinformazione su scala globale.


Newsletter – Non perderti le ultime novità sul mondo dell’Intelligenza Artificiale. Iscriviti alla newsletter di Rivista.AI e accedi a un mondo di contenuti esclusivi direttamente nella tua casella di posta!