(a meno che tu non corra ai ripari)

Non dite che non ve lo avevamo detto… vedete che con le norme sulla privacy siamo ormai al confessionale digitale: Anthropic, dal 28 settembre 2025, comincerà automaticamente ad addestrare i suoi modelli AI sui vostri dati chat nuove o riprese e sessioni di coding, salvo che non scegliate di opt-out. E non parliamo di una rimozione veloce: i dati saranno conservati fino a cinque anni, a meno che non interveniate attivamente per impedirlo.

Funziona così. vi appare un pop-up con il titolo “Updates to Consumer Terms and Policies” e un gigantesco pulsante “Accept”. dietro un toogle automaticamente su “On” c’è la dicitura “Allow the use of your chats and coding sessions to train and improve Anthropic AI models.” se fate clic su “Accept” senza disattivare quel toggle, ecco che l’addestramento parte. se volete evitare il peggio, dovete spostarlo su “Off” oppure rimandare con “Not now”, ma sappiate che il 28 settembre sarete costretti a decidere.

Il pezzo forte è che la regola vale per tutti i piani consumer: Claude Free, Pro, Max e anche Claude Code associati ai conti di quei piani. non si applica invece ai tier commerciali come Claude Gov, Claude per Work, Education e l’uso via API (anche mediante Amazon Bedrock o Google Cloud’s Vertex AI).

Ecco il dettaglio: se avete già accettato, potete disattivare il consenso in Settings → Privacy → Privacy Settings → “Help improve Claude” su Off. ma attenzione: qualunque dato già utilizzato per addestramento non può essere recuperato o cancellato retroattivamente.

Anche se Anthropic sostiene di filtrare o offuscare i dati sensibili e di non venderli a terzi, alla fine la scelta è vostra o meglio, sarà vostra (se vi ricordate di farla) entro il fatidico 28 settembre.

Tra l’altro, la questione dei diritti d’autore e del “dove prende i dati Anthropic” si fa calda. Reddit ha citato in giudizio la compagnia in California, accusandola di scraping indiscriminato dei commenti degli utenti senza consenso — una violazione dei termini d’uso e un caso di unfair competition, non solo di copyright.

Cosa significa tutto questo nel vostro universo da CTO che mastica codici, strategia e privacy con ironia tagliente?

State sull’attenti: se se ne va in auto-pilot, il vostro codice, le vostre chat, i vostri ragionamenti strategici entrano nel forno dell’AI. Cinque anni di conservazione, anche se poi vi pentite e spegnete il toggle, quel pezzo è già nel training set.

La trappola della UX: big button “Accept”, toggle “On”. molti cliccheranno a rullo distrattamente. la scelta non è più affare involontario: state attenti, perché ogni interazione futura potrebbe diventare addestramento. E se la vostra attività è sensibile o proprietaria… beh, anche una buona dose di paranoia è in fondo un ottimo alleato.

Un invito provocatorio da CEO-technologist esperto: se volete restare padrone delle vostre parole e dei vostri codici, non lasciate che l’automaticità vi scivoli sotto il dito. Orientamento strategico: configurate bene la privacy prima che qualcun altro lo faccia per voi.