Microsoft-backed OpenAI ha identificato e interrotto più di 20 casi di individui o reti che utilizzano i suoi modelli di intelligenza artificiale per influenzare le elezioni, diffondere disinformazione o seminare divisioni sociali quest’anno.
“La loro attività spaziava dal debugging di malware, alla scrittura di articoli per siti web, alla generazione di contenuti pubblicati da falsi profili su account social media,”
Le attività variavano in complessità da semplici richieste di generazione di contenuti a sforzi complessi e multi-fase per analizzare e rispondere ai post sui social media. Includevano persino una bufala sull’uso dell’IA.”
ha dichiarato OpenAI in un rapporto di 54 pagine pubblicato oggi in allegato
Ad esempio, l’IA è stata utilizzata per generare contenuti su siti social riguardanti le elezioni in tutto il mondo, inclusi Stati Uniti, Rwanda, India e UE.
Particolarmente preoccupante è l’uso dell’IA da parte dei governi per diffondere disinformazione. In agosto, OpenAI ha affermato di aver interrotto “un’operazione di influenza iraniana segreta che generava commenti sui social media e articoli lunghi sulle elezioni statunitensi, insieme a temi come il conflitto a Gaza, le politiche occidentali verso Israele, la politica in Venezuela e l’indipendenza scozzese.”
In dettaglio Open AI ha affermato di aver chiuso gli account associati a due operazioni russe, denominate Bad Grammer e Doppelganger; una campagna cinese nota come Spamouflage; una rete iraniana chiamata International Union of Virtual Media; e un’operazione israeliana denominata Zero Zeno.
L’uso dell’IA consente a una sola persona di fare ciò che in precedenza avrebbe richiesto un grande gruppo.
“Un’operazione pre-IA su questa scala avrebbe probabilmente richiesto un grande team di troll, con tutti i costi e i rischi di fuga associati a tale impresa,” afferma il rapporto. “Tuttavia, la dipendenza da IA di questa operazione la rendeva anche insolitamente vulnerabile alla nostra interruzione.”
OpenAI ha anche dichiarato di aver identificato e bandito diversi account collegati alla Cina che conducevano attacchi di spear phishing contro dipendenti di OpenAI e governi in tutto il mondo. Lo spear phishing è l’invio di email che sembrano provenire da una fonte nota o fidata per raccogliere informazioni riservate.
Un altro attore della minaccia informatica noto come STORM-0817 ha utilizzato modelli OpenAI per generare profili in massa per account sui social media. Un’altra rete chiamata “Bet Bot” ha utilizzato foto profilo generate dall’IA per account falsi su X.
Tuttavia, così come i cattivi attori possono utilizzare l’IA per fare del male, OpenAI ha sottolineato che l’IA può essere utilizzata anche per reprimere attività sospette.
“Abbiamo continuato a costruire nuovi strumenti potenziati dall’IA che ci permettono di rilevare e analizzare attività potenzialmente dannose,” secondo il rapporto. “Sebbene il processo investigativo richieda ancora un intenso giudizio umano ed esperienza durante tutto il ciclo, questi strumenti ci hanno permesso di comprimere alcuni passaggi analitici da giorni a minuti.”
Limitazioni e Risultati
Nonostante l’uso intensivo dell’IA, OpenAI ha osservato che nessuna delle operazioni identificate ha raggiunto un coinvolgimento virale significativo o un pubblico sostenuto. La maggior parte dei contenuti generati ha ricevuto pochi o nessun “mi piace” o condivisione.
Secondo il rapporto, le tecnologie IA non hanno migliorato in modo sostanziale la capacità degli attori malevoli di creare contenuti virali o di costruire audience significative. Le operazioni sono state descritte come vulnerabili alla scoperta e all’interruzione da parte di OpenAI.