Il 2025 segna una pietra miliare inquietante nella storia della sicurezza digitale: la prima fuga di dati reale legata all’intelligenza artificiale è diventata pubblica. Non si tratta di un hacker sofisticato o di un attacco tradizionale. No, è successo grazie a una falla nel modo in cui vengono indicizzate e condivise le conversazioni generate da ChatGPT, la stessa AI che da mesi sta rivoluzionando il modo in cui cerchiamo e produciamo informazioni. Cinquantamila conversazioni “private” sono state cancellate in fretta e furia dall’indice di Google dopo che qualcuno ha scoperto che bastava una semplice ricerca per leggere dati personali, chiavi API sensibili e strategie aziendali riservate. Ma come spesso accade, il danno era già fatto. Archive.org, il grande archivio digitale, non è stato coinvolto nella pulizia e migliaia di queste conversazioni restano lì, alla mercé di chiunque voglia curiosare.
Questa fuga di informazioni non è solo un incidente di percorso. È il sintomo di un sistema che nessuno aveva previsto, dove la potenza degli algoritmi di indicizzazione e la gigantesca autorevolezza di dominio di ChatGPT creano un paradosso inquietante. Il paradosso di una piattaforma che, con il suo peso SEO, può scalare le vette di Google senza sforzi tradizionali, grazie a contenuti “fabbricati” dall’intelligenza artificiale stessa.