La parola chiave principale è semplice e quasi brutale: cancellare ChatGPT. Le keyword semantiche orbitano attorno allo stesso pianeta lessicale: privacy dati ChatGPT, come eliminare account OpenAI, esportare conversazioni ChatGPT. Tre varianti che Google e i suoi algoritmi di ricerca semantica capiscono benissimo, soprattutto nel contesto della nuova generazione di risposte sintetiche generate dall’AI nella Search Generative Experience.

Il contesto, tuttavia, è molto più interessante di una semplice guida tecnica. Una sera di fine febbraio, Sam Altman pubblica un messaggio apparentemente innocuo su X. Poche righe. Nessun tono epico. Nessun annuncio teatrale. Una comunicazione quasi burocratica. OpenAI ha firmato un accordo con il Dipartimento della Difesa degli Stati Uniti per distribuire i propri modelli di intelligenza artificiale su reti militari classificate.

Tempismo curioso. Qualche ora prima, Dario Amodei e la sua azienda, Anthropic, avevano rifiutato condizioni simili. Secondo diverse ricostruzioni giornalistiche, il nodo della trattativa riguardava due temi politicamente tossici: sorveglianza domestica su larga scala e sistemi d’arma autonomi letali. L’azienda di Amodei preferì rinunciare al contratto con il Pentagono piuttosto che accettare quelle clausole.

Il risultato fu un terremoto reputazionale nel settore dell’intelligenza artificiale.

Nel giro di quarantotto ore, il movimento online QuitGPT cominciò a circolare su forum, social network e comunità tecniche. Milioni di utenti iniziarono a discutere una domanda che, fino a quel momento, nessuno aveva realmente affrontato con lucidità: cosa succede ai dati personali accumulati dentro ChatGPT quando si decide di abbandonarlo?

La risposta, come spesso accade nella Silicon Valley, è meno romantica di quanto si immagini.

ChatGPT non è soltanto un assistente conversazionale. È anche un gigantesco sistema di raccolta dati. Ogni conversazione contiene microtracce di identità digitale: abitudini cognitive, stile di scrittura, workflow professionali, interessi personali, pattern decisionali. In altre parole, ciò che gli economisti della tecnologia chiamano comportamento computazionale.

La maggior parte degli utenti scopre tardi un dettaglio fondamentale.

Fin dall’inizio, OpenAI ha utilizzato le conversazioni degli utenti per migliorare i propri modelli. In teoria con controlli e anonimizzazione. In pratica con un enorme archivio di prompt, risposte, correzioni e feedback che costituisce uno dei dataset linguistici più ricchi mai costruiti nella storia dell’informatica.

Chi decide di uscire dall’ecosistema deve quindi compiere una serie di operazioni molto precise. Non basta cancellare l’abbonamento. Non basta disinstallare l’app. Il processo reale è più simile a un’operazione di bonifica digitale.

Il primo passaggio riguarda l’esportazione completa dei dati.

All’interno delle impostazioni di ChatGPT esiste una funzione che consente di scaricare l’intera cronologia delle conversazioni. Il sistema genera un archivio compresso contenente vari file, tra cui un documento JSON con tutte le interazioni registrate nel tempo. Ogni messaggio contiene metadati dettagliati: timestamp, modello utilizzato, prompt dell’utente e risposta generata.

Una specie di autobiografia algoritmica.

Questa operazione è essenziale perché, una volta eliminato l’account, OpenAI non permette più il recupero di quei dati. Nemmeno tramite assistenza clienti. L’archivio esportato diventa quindi l’unica copia disponibile delle proprie conversazioni.

Molti professionisti scoprono in questa fase una cosa curiosa. L’archivio ChatGPT è spesso più prezioso di quanto si immaginasse. Contiene mesi, talvolta anni, di lavoro cognitivo: brainstorming, codice software, bozze di articoli, ricerche, simulazioni strategiche. In pratica, una memoria esterna della mente.

Una volta messa in sicurezza la copia locale, il passo successivo è intervenire sulle impostazioni di addestramento del modello.

Nelle impostazioni dei dati esiste un interruttore chiamato “Improve the model for everyone”. Nome elegante, quasi filantropico. In sostanza significa autorizzare OpenAI a utilizzare le conversazioni per migliorare i modelli linguistici futuri.

Molti utenti non lo disattivano mai.

Spegnere questa opzione non elimina i dati già utilizzati in passato, ma interrompe il flusso di nuove conversazioni verso il sistema di training. In altre parole, stabilisce un confine temporale tra il passato e il futuro.

Un dettaglio tecnico che pochi conoscono riguarda il sistema di feedback.

Se l’utente continua a valutare le risposte con il pollice su o giù, quelle conversazioni possono comunque rientrare nei dataset di addestramento. Paradosso quasi filosofico: si può smettere di contribuire al modello, ma basta un clic entusiasta per tornare ad addestrarlo gratuitamente.

A questo punto entra in gioco un altro meccanismo poco visibile ma molto sofisticato: la memoria persistente di ChatGPT.

Il sistema funziona su due livelli. Da una parte esistono le memorie salvate, ovvero informazioni esplicite che il modello conserva perché ritenute utili per le conversazioni future. Dall’altra parte esiste una memoria implicita derivata dalla cronologia delle chat.

Nel tempo, questo meccanismo costruisce un vero profilo comportamentale dell’utente.

Professione, preferenze linguistiche, interessi culturali, stile di comunicazione. Alcuni utenti trovano nella lista delle memorie una descrizione sorprendentemente accurata della propria identità digitale.

Prima di eliminare l’account conviene esportare anche questo materiale. Non esiste una funzione automatica per farlo, quindi la procedura più semplice consiste nel copiarlo manualmente o catturare schermate.

Molti utilizzano poi queste informazioni per inizializzare altri assistenti AI, come Claude, trasferendo una sorta di “profilo cognitivo” tra piattaforme.

Una volta salvata la memoria, arriva il momento più delicato: cancellarla.

All’interno delle impostazioni di personalizzazione è possibile eliminare ogni memoria salvata singolarmente oppure svuotare l’intero archivio con un comando unico. OpenAI dichiara che i dati eliminati possono essere conservati per un massimo di trenta giorni nei log di sicurezza, ma vengono immediatamente rimossi dall’uso attivo del sistema.

Questo passaggio è fondamentale perché cancellare le chat non elimina automaticamente le memorie generate durante quelle conversazioni.

Sono due sistemi diversi.

Molti utenti non lo sanno e lasciano dietro di sé tracce persistenti anche dopo aver eliminato l’intera cronologia.

Solo a questo punto si può affrontare la cancellazione delle conversazioni vere e proprie.

Nelle impostazioni di controllo dati esiste un comando chiamato “Delete all chats”. L’operazione rimuove istantaneamente ogni conversazione dalla barra laterale dell’interfaccia e avvia la procedura di cancellazione definitiva sui server di OpenAI.

La società afferma che i dati vengono eliminati entro trenta giorni, salvo eccezioni legali o di sicurezza.

Un errore molto comune consiste nell’archiviare le chat invece di eliminarle. L’archiviazione non cancella nulla dai server. Si limita a nascondere le conversazioni dall’interfaccia utente.

Una differenza apparentemente banale ma, in termini di privacy, gigantesca.

Un ultimo aspetto riguarda i link condivisi. ChatGPT permette di generare collegamenti pubblici alle conversazioni per condividerle con altre persone. Molti dimenticano di eliminarli.

Se qualcuno ha già importato quella conversazione nel proprio account, la copia rimarrà disponibile anche dopo la cancellazione originale. È uno dei classici esempi di replicazione informativa, fenomeno noto da decenni nella sicurezza informatica.

Una volta pubblicato un dato, controllarne la diffusione diventa praticamente impossibile.

Alla fine di questo processo rimane una considerazione interessante. Nel mondo dell’intelligenza artificiale, la vera materia prima non sono i modelli matematici. Non sono nemmeno i supercomputer o i data center.

Sono le conversazioni umane.

Ogni prompt digitato, ogni correzione fatta a un algoritmo, ogni spiegazione richiesta a un assistente AI contribuisce a costruire il cervello collettivo di queste macchine linguistiche.

Cancellare ChatGPT non significa solo eliminare un account. Significa interrompere un flusso di dati che, per anni, ha alimentato uno dei sistemi di apprendimento più grandi mai creati.

Un gesto tecnico.

Ma anche, per qualcuno, una piccola dichiarazione politica nell’era dell’intelligenza artificiale.