La privacy AI è un ossimoro affascinante. Ci piace pensare che una conversazione con un’intelligenza artificiale sia un momento intimo, quasi catartico, un confessionale digitale dove possiamo scaricare i nostri drammi sentimentali o le nostre paure professionali senza timore. Peccato che Sam Altman, il CEO di OpenAI, ci abbia appena ricordato che è una fantasia. Niente riservatezza conversazioni digitali, niente confidenzialità dati sensibili. Se oggi ti confidi con un avvocato o un terapeuta, la legge ti protegge. Se ti confidi con ChatGPT, sei solo un dato tra miliardi, pronto a essere esaminato in tribunale su richiesta di un giudice. È il prezzo della modernità, ci dicono. Ma è anche un gigantesco problema di fiducia che potrebbe frenare l’adozione di massa dell’intelligenza artificiale.

Altman lo ha detto chiaramente, con un candore che suona quasi come una provocazione: “La gente racconta le cose più personali a ChatGPT. Giovani soprattutto. Usano l’AI come un terapeuta, un life coach, chiedendo consigli su relazioni, problemi familiari. Ma non c’è il privilegio legale che ti tutela con un avvocato o un medico”. Il che significa che, se domani vieni citato in giudizio, i tuoi sfoghi digitali potrebbero diventare un documento ufficiale. Fantastico, vero? Abbiamo trasformato il confessionale digitale in un archivio consultabile dai tribunali. Altman stesso l’ha definito “sbagliato”, ma la verità è che questo è solo l’inizio di un dilemma molto più profondo.

È curioso notare come l’industria della tecnologia, sempre così veloce a vendere sogni, si scopra improvvisamente lenta e confusa quando si tratta di regole di base sulla riservatezza conversazioni digitali. Un anno fa, nessuno ci pensava, ammette Altman. Come se fosse normale costruire un motore in grado di divorare miliardi di dati umani senza chiedersi cosa accade quando quei dati finiscono in un’aula di tribunale. Ed è ironico, perché mentre i big della Silicon Valley recitano il mantra della “fiducia nell’AI”, i consumatori più attenti iniziano a comportarsi in modo esattamente opposto. Basta guardare cosa è successo dopo il ribaltamento di Roe v. Wade negli Stati Uniti: milioni di donne hanno abbandonato app di tracking mestruale poco sicure per passare a Apple Health, che almeno cifra i dati in locale. Perché? Perché la confidenzialità dati sensibili è più importante della comodità. E ChatGPT, con tutto il suo fascino, non offre alcuna garanzia paragonabile.

Non è solo una questione teorica. OpenAI sta già lottando in tribunale per evitare che un ordine giudiziario la costringa a conservare e fornire milioni di conversazioni di utenti. Un caso che coinvolge anche il New York Times e che mette in gioco il futuro stesso del concetto di privacy AI. Se la corte dovesse imporre a OpenAI di archiviare e condividere i dati su larga scala, la diga si romperebbe. Ogni conversazione potrebbe diventare potenzialmente materiale per indagini legali, cause civili o, peggio, richieste governative. Chi crede che le aziende tecnologiche possano resistere a lungo alla pressione legale evidentemente non ha memoria storica: basta guardare la quantità di dati ceduti da colossi digitali su semplice richiesta delle autorità negli ultimi anni.

Il paradosso è che proprio chi costruisce queste piattaforme ne è spaventato. Altman stesso ha confessato a Theo Von, il conduttore del podcast “This Past Weekend”, di comprendere chi esita a usare ChatGPT per ragioni di privacy. “Ha senso voler chiarezza legale prima di usarlo davvero tanto”, ha detto. Una frase che suona come un’ammissione implicita: sì, il prodotto che vendiamo come un assistente fidato non ha le stesse garanzie minime di un medico di famiglia. Ma continuiamo a promuoverlo come se lo fosse.

Qualcuno potrebbe obiettare che questa è la fase inevitabile di ogni rivoluzione tecnologica. Ogni nuovo medium, da internet ai social network, ha avuto un periodo selvaggio prima di essere regolato. Vero, ma qui c’è un dettaglio che rende il problema più urgente. Le persone non stanno solo postando foto di gattini o meme sarcastici, stanno consegnando all’AI le loro paure più intime, i dubbi più privati, decisioni di vita che possono avere conseguenze legali e sociali. La differenza è sostanziale. Quando racconti a ChatGPT di avere un problema di dipendenza, una relazione extraconiugale o un dilemma finanziario, stai creando un documento digitale che può essere usato contro di te. Non è paranoia, è semplicemente come funziona la legge.

Il futuro della privacy AI dipenderà da quanto velocemente riusciremo a colmare questo vuoto normativo. Ma nel frattempo, la narrazione da Silicon Valley che invita a “fidarsi dell’innovazione” scricchiola sempre più. Perché, diciamolo chiaramente, il vero ostacolo all’adozione massiva non è la qualità delle risposte di ChatGPT, ma la sensazione, sempre più diffusa, che stiamo barattando l’anima digitale con un algoritmo che non ci appartiene. Altman lo sa. Il mercato lo sa. Gli utenti più consapevoli lo hanno già capito. La domanda è se qualcuno avrà il coraggio di fermarsi prima che la normalità diventi consegnare le proprie confessioni private a un sistema che, per legge, potrebbe essere obbligato a tradirci.