Un attacco zero-click, invisibile e silenzioso. Così si è rivelato il “ShadowLeak“, una vulnerabilità critica scoperta da Radware nel modulo Deep Research di ChatGPT, che ha messo a rischio i dati sensibili degli utenti di Gmail. Il problema non risiedeva nell’utente, ma nel sistema stesso: un’architettura complessa che, sebbene progettata per l’efficienza, ha mostrato le sue crepe quando esposta a tecniche di prompt injection indiretta.

Deep Research è una funzionalità avanzata di ChatGPT che consente all’assistente di eseguire ricerche approfondite su Internet e accedere a dati personali, come le email di Gmail, per fornire risposte dettagliate. Questa capacità è stata introdotta per migliorare l’utilità del servizio, ma ha anche ampliato la superficie di attacco per i malintenzionati. La vulnerabilità “ShadowLeak” sfrutta un’iniezione di prompt indiretta, dove istruzioni dannose sono nascoste in email HTML tramite tecniche come testo bianco su sfondo bianco o caratteri minuscoli, rendendo invisibili i comandi per l’utente. Quando ChatGPT elabora queste email, esegue silenziosamente le istruzioni contenute, esfiltrando dati sensibili come nomi, indirizzi e informazioni interne e inviandoli a server controllati dagli attaccanti.

La gravità dell’attacco risiede nel fatto che non è richiesta alcuna interazione da parte dell’utente: l’azione dannosa avviene automaticamente quando ChatGPT elabora l’email compromessa. Questo tipo di attacco è particolarmente insidioso perché non lascia tracce evidenti e può passare inosservato anche a sistemi di sicurezza aziendali. La vulnerabilità è stata scoperta da Radware, che ha sviluppato un proof-of-concept per dimostrare la fattibilità dell’attacco. Successivamente, è stata segnalata a OpenAI, che ha rilasciato una patch per correggere il problema. Nonostante l’assenza di prove di sfruttamento attivo, l’incidente evidenzia la necessità di una maggiore attenzione alla sicurezza nelle integrazioni tra AI e servizi sensibili.

Questo episodio solleva interrogativi sulla sicurezza delle funzionalità avanzate di AI e sulla fiducia che riponiamo in esse. Mentre le aziende cercano di offrire strumenti sempre più potenti e integrati, è fondamentale bilanciare l’innovazione con la protezione dei dati degli utenti. La storia di “ShadowLeak” è un monito: in un mondo sempre più connesso e automatizzato, la sicurezza non può essere un’opzione, ma deve essere intrinseca in ogni sistema.