(a meno che tu non corra ai ripari)

Non dite che non ve lo avevamo detto… vedete che con le norme sulla privacy siamo ormai al confessionale digitale: Anthropic, dal 28 settembre 2025, comincerà automaticamente ad addestrare i suoi modelli AI sui vostri dati chat nuove o riprese e sessioni di coding, salvo che non scegliate di opt-out. E non parliamo di una rimozione veloce: i dati saranno conservati fino a cinque anni, a meno che non interveniate attivamente per impedirlo.

Funziona così. vi appare un pop-up con il titolo “Updates to Consumer Terms and Policies” e un gigantesco pulsante “Accept”. dietro un toogle automaticamente su “On” c’è la dicitura “Allow the use of your chats and coding sessions to train and improve Anthropic AI models.” se fate clic su “Accept” senza disattivare quel toggle, ecco che l’addestramento parte. se volete evitare il peggio, dovete spostarlo su “Off” oppure rimandare con “Not now”, ma sappiate che il 28 settembre sarete costretti a decidere.