
Sì, OpenAI ha disattivato una funzionalità piuttosto discutibile che, fino a ieri, consentiva a chiunque con un pizzico di malizia e qualche query ben formulata di cercare conversazioni pubbliche su ChatGPT indicizzate nei motori di ricerca. Non stiamo parlando di banalità o errori di grammatica. Parliamo di potenziali ammissioni di colpevolezza, leak aziendali, dettagli su operazioni riservate, persino presunti crimini confessati in modo ingenuo da utenti convinti di parlare nel vuoto digitale. La realtà, invece, è che stavano urlando nel megafono di Google.
Dane Stuckey, Chief Information Security Officer di OpenAI, ha annunciato via X (già Twitter, ora il club delle ansie pubbliche) che la funzionalità sarà disattivata a partire da venerdì mattina. Affermazione sobria, quasi chirurgica, che non nasconde però la gravità della falla: l’indicizzazione pubblica di interazioni sensibili all’interno di un contesto che milioni di utenti considerano semi-privato è un azzardo pericoloso. E francamente, un errore da dilettanti.
Perché succede? Semplice: la foga della trasparenza, unita alla fame di dati e all’illusione che tutto ciò che è AI debba anche essere SEO, ha portato a rendere pubblici i log di alcune conversazioni condivise volontariamente dagli utenti. Condivise, sì, ma senza sapere che sarebbero finite tra i risultati di Google. Bastava sapere dove cercare. L’effetto è stato istantaneo: thread virali su Reddit, investigazioni su X, allarmismi in stile “ChatGPT ti spia” e “la tua privacy vale meno di un click”.
Chiariamo: non tutte le conversazioni erano indicizzabili, solo quelle rese pubbliche dagli utenti tramite l’opzione “Share”. Ma la sottile differenza tra pubblico per link e pubblico per Googlebot è sfuggita ai più. Ed è qui che nasce il problema. Perché la maggior parte degli utenti non ha idea di cosa significhi “indicizzazione”, e considera ancora il web come un’estensione privata del proprio desktop. Un errore che pagano caro, soprattutto in un’epoca in cui anche la più piccola confessione, buttata lì per gioco o frustrazione, può diventare prova, leak, o meme.
La domanda, a questo punto, non è solo “come è stato possibile”, ma perché sia stato permesso in primo luogo. Non esiste AI se manca la sicurezza. Non esiste fiducia senza contesto. E una funzionalità che espone i dati generati dagli utenti senza spiegare chiaramente dove finiranno quei dati è una bomba a orologeria semantica. Nel migliore dei casi, è incompetenza UX. Nel peggiore, è un’apertura di credito a scenari da distopia digitale.
Il danno reputazionale per OpenAI? Limitato, per ora. Ma basta un paio di screenshot di troppo e qualche titolo clickbait per far esplodere una tempesta mediatica in stile Cambridge Analytica. Nessuno si fida delle AI che parlano troppo, e meno ancora di quelle che ricordano troppo bene. L’illusione di una macchina neutrale svanisce quando ti accorgi che il tuo messaggio è finito accanto a una confessione di insider trading o alla ricetta segreta di un algoritmo brevettato.
Il vero tema, comunque, non è l’indicizzazione. È l’asimmetria informativa. Gli utenti non capiscono cosa succede ai dati che generano. Le aziende fingono che la trasparenza basti, ma non spiegano. I bot sembrano innocui finché non diventano testimoni silenziosi di qualcosa che non dovevano sapere. Ed è qui che entra in gioco la responsabilità. Perché l’intelligenza artificiale non può essere solo un esercizio di stile tecnico. Deve anche saper tacere.
Ironico che a dover ricordarlo sia proprio un sistema che parla troppo.