La recente scoperta che il gruppo di hacker nordcoreano Kimsuky ha utilizzato ChatGPT per creare un deepfake di un documento di identità militare sudcoreano rappresenta un punto di svolta inquietante nelle operazioni di cyber-espionaggio sponsorizzate dallo Stato. Secondo quanto riportato da Bloomberg, i ricercatori di Genians, una società di cybersecurity sudcoreana, hanno identificato l’uso di un ID militare contraffatto in un attacco di phishing mirato a funzionari sudcoreani. Il documento falso è stato allegato a un’email contenente un malware progettato per estrarre dati dai dispositivi dei destinatari. Questo attacco evidenzia l’evoluzione delle tecniche di Kimsuky, che ha precedentemente utilizzato l’AI per creare curriculum falsi e superare test di codifica, infiltrandosi in aziende tecnologiche statunitensi.

Il fatto che ChatGPT abbia inizialmente rifiutato di generare un documento di identità militare, citando restrizioni legali, non ha impedito agli hacker di aggirare queste limitazioni. Modificando i prompt, sono riusciti a ottenere un modello plausibile di un documento d’identità, dimostrando come le difese integrate possano essere eluse con tecniche di ingegneria sociale e prompt crafting. Questo caso solleva interrogativi sulla capacità delle piattaforme AI di prevenire abusi e sull’efficacia delle misure di sicurezza implementate.

Kimsuky, noto anche come APT37, è un gruppo di cyber-espionaggio sponsorizzato dalla Corea del Nord, attivo dal 2012. Le sue operazioni mirano principalmente a raccogliere informazioni su obiettivi sudcoreani, giapponesi e statunitensi, utilizzando tecniche di spear-phishing e malware avanzato. Il gruppo è noto per la sua capacità di adattarsi rapidamente alle nuove tecnologie e per l’uso innovativo degli strumenti AI, come dimostrato in questo attacco.

Questo incidente sottolinea la crescente minaccia rappresentata dall’uso improprio dell’intelligenza artificiale nelle operazioni di cyber-espionaggio. Le capacità di generazione automatica di contenuti da parte di modelli linguistici come ChatGPT possono essere sfruttate per creare documenti falsi, profili ingannevoli e malware sofisticati, abbassando la barriera all’ingresso per attacchi informatici complessi. Le organizzazioni devono quindi adottare misure di sicurezza più robuste, tra cui l’autenticazione a più fattori, la formazione continua del personale e l’implementazione di sistemi di rilevamento avanzati, per proteggersi da queste minacce emergenti.

Fonte: https://www.bloomberg.com/news/articles/2025-09-14/north-korean-hackers-used-chatgpt-to-help-forge-deepfake-id