Nel grande circo dell’intelligenza artificiale, dove i protagonisti hanno nomi roboanti come Anthropic, Meta, Google, Microsoft e OpenAI, la posta in gioco non è semplicemente la prossima killer app, ma la materia prima stessa della rivoluzione digitale: i dati personali degli utenti. Ed è qui che le sottigliezze diventano armi, le policy si trasformano in reticolati di parole sapientemente dosate, e il consenso… beh, spesso è un miraggio burocratico.

Anthropic, la start-up fondata da ex-OpenAI delusi dalla deriva commerciale dei loro ex colleghi, ha deciso di puntare su un approccio “opt-in” per l’uso dei dati a fini di addestramento. In altre parole, l’utente deve dare esplicitamente il suo consenso prima che le sue interazioni diventino cibo per i modelli. Una carezza etica che suona come marketing d’altri tempi, soprattutto considerando che in realtà, in certi casi — tipo quando si mette un pollice su o giù — si autorizza comunque l’uso dei propri dati. E ovviamente, anche se non si allenano modelli, le conversazioni vengono monitorate per “sicurezza”, che tradotto significa controllo preventivo contro abusi e devianze dell’utenza.

Meta, invece, va dritta al punto come un bulldozer impazzito. Dopo aver costruito il suo impero su una montagna di dati personali raccolti più o meno consapevolmente dagli utenti, adesso integra l’AI in ogni anfratto delle sue piattaforme. L’approccio di Zuckerberg è più o meno il seguente: tutto ciò che è pubblico su Facebook o Instagram è mio, grazie, e lo userò per insegnare ai miei modelli a pensare come te. E no, non puoi opporti. O meglio, puoi farlo solo se hai la fortuna di vivere in Europa o in Brasile, dove esistono ancora leggi capaci di mettere qualche freno. Il resto del mondo? Cavie gratuite di un esperimento globale di profilazione e predizione.

Google si muove con la solita doppiezza da prete digitale. Da un lato proclama di addestrare Gemini e compagnia bella quasi esclusivamente su dati “pubblicamente disponibili”. Dall’altro, se provi uno dei loro prodotti “in beta” o usi servizi come YouTube o Workspace Labs, sappi che i tuoi dati potrebbero tranquillamente finire nel loro prossimo modello predittivo. E la gestione è tutta una questione di impostazioni, flag da attivare o disattivare, insomma: la tipica burocrazia pensata per scoraggiare chiunque non sia un ingegnere del MIT.

Microsoft gioca la carta della rispettabilità istituzionale. A Redmond giurano e spergiurano che i dati aziendali gestiti tramite Office 365, Teams, Word, eccetera, non finiscono nei loro modelli di AI. Per i consumatori però il discorso cambia: se usi Bing o MSN, il tuo comportamento può essere catturato per addestrare i sistemi, a meno che tu non decida, dopo un pellegrinaggio nelle oscure profondità delle impostazioni dell’account, di disattivare questa “opzione”. Non manca poi il tocco surreale: con i nuovi Copilot+ PC, Microsoft ti promette che le “istantanee” raccolte dal sistema di memorizzazione locale chiamato Recall rimarranno davvero solo tue. Una promessa che, considerando la storia recente di Microsoft in materia di privacy, suona un po’ come “fidati, sono un avvocato”.

OpenAI, il ragazzo prodigio diventato, come spesso capita, un cinico startupper della Silicon Valley. ChatGPT nasceva come uno strumento “per il bene dell’umanità”, ma oggi l’etica è una variabile opzionale nel bilancio aziendale. I dati degli utenti di ChatGPT Enterprise, Team ed Edu non vengono utilizzati per l’addestramento, ma se parliamo degli utenti consumer la faccenda cambia. Il consenso è gestibile tramite le impostazioni, certo, ma nel frattempo i tuoi prompt e risposte — a meno di disattivazioni specifiche — possono tranquillamente finire nel minestrone neurale. Ciliegina sulla torta: OpenAI ammette candidamente di non sapere esattamente tutto quello che i suoi modelli imparano o fanno emergere, come dimostrano le varie cause legali in corso da parte di autori e media che si sono ritrovati plagiati da GPT.

Adobe, il gigante dei software creativi, da tempo cavalca la tigre dell’AI generativa con la sua linea Firefly. Photoshop, Illustrator, Premiere Pro e compagnia cantante ora sono infarciti di feature AI che promettono magie visive a costo zero di talento umano. Adobe si vanta di non aver mai “scrapato” contenuti a caso dal web, come fanno invece molte altre compagnie, e di usare solo materiali su cui possiede pieni diritti. Quindi, in teoria, i contenuti creati sarebbero “commercialmente sicuri”.

Eppure, proprio quest’anno, Adobe ha aggiornato i suoi Termini di Servizio in modo piuttosto ambiguo, lasciando intendere che forse, ma solo forse, i dati dei clienti avrebbero potuto essere utilizzati per l’addestramento delle IA. Le reazioni, manco a dirlo, sono state furibonde. Così, con l’agilità comunicativa di chi si è trovato la casa in fiamme mentre grigliava marshmallow, Adobe ha dovuto precisare che no, tranquilli, i vostri file personali non finiranno nel tritacarne delle loro reti neurali. Tuttavia, se carichi contenuti su Adobe Stock, accetti che vengano usati per addestrare Firefly. Piccolo dettaglio: ti rifilano anche un bonus annuale, una mancetta simbolica per il tuo “prezioso contributo” alla causa AI.

Intanto, sul fronte Apple, la narrazione è ancora più sottile e ben confezionata, in puro stile Cupertino: proteggere i dati, rispettare la privacy, meritarsi la fiducia, come se avessero assunto direttamente un guru del mindfulness per scrivere le policy. Apple Intelligence, la loro piattaforma AI, è costruita per operare il più possibile “on device”, minimizzando il ricorso al cloud. Dove il cloud è indispensabile, entra in scena il cosiddetto “Private Cloud Compute”, una specie di server Schrödinger dove i dati sono inviati ma non esistono, letti ma non conservati, processati ma non registrati. O almeno così ci raccontano.

Apple, a differenza di Adobe, ha anche il lusso di dire che integra ChatGPT nei suoi sistemi, ma lascia scegliere all’utente se usarlo o no. Una finta opzione di libertà, perché prima o poi la pressione sociale o la praticità vinceranno, e ti ritroverai a regalare domande e pezzi di vita a OpenAI. Se poi decidi di loggarti con un account ChatGPT Plus, sappi che la privacy Apple svanisce come lacrime nella pioggia e il gioco passa alle regole di OpenAI.

Sul piano estetico, Apple spinge persino la creazione di immagini AI personalizzate dei tuoi contatti. Non generano deepfake realistici (si resta nel cartoon-style), ma il principio che puoi fabbricare caricature AI dei tuoi amici o dei tuoi figli mostra chiaramente dove vogliono andare a parare: personalizzazione estrema come leva emotiva, fiducia come valuta.

La fiducia, appunto. Un concetto che viene brandito da ogni multinazionale tech come un mantra, ma che nella realtà si misura in prove concrete, non in buoni propositi. E qui Apple cerca di distinguersi offrendo report settimanali su come Apple Intelligence ha utilizzato i tuoi dati. Una mossa intelligente, certo, ma anche una perfetta strategia di PR: ti diamo la sensazione di controllo, così smetti di fartene domande.

In questo panorama, una cosa è chiara come un’email di phishing: chi controlla i dati controlla il futuro. E chi pensa di avere ancora un minimo di privacy probabilmente crede anche a Babbo Natale che vola con una Tesla Roadster.