La privacy digitale non è più un concetto: è un ricordo sfocato, sepolto tra i selfie del 2014 e le foto mai condivise di un aperitivo con amici che oggi non sentiremmo neanche su WhatsApp. Se Meta aveva già saccheggiato i contenuti pubblici di Facebook e Instagram per alimentare i suoi modelli di intelligenza artificiale, ora punta direttamente a ciò che non hai mai voluto mostrare a nessuno: la tua galleria fotografica personale.
Chiariamolo subito, almeno per ora: secondo dichiarazioni ufficiali, Meta non sta addestrando i suoi modelli generativi su queste immagini non pubblicate. Però, come in ogni buona distopia, il “non ancora” ha il peso specifico del piombo. Il nuovo “test” del colosso prevede una funzione di “cloud processing” che ti chiede, con il garbo di un cameriere troppo invadente, se vuoi facilitare la tua vita social permettendo a Facebook di pescare regolarmente i tuoi scatti personali dalla memoria del telefono. Ti promette collage, recap, restyling IA e suggestioni tematiche, come se un algoritmo sapesse meglio di te quando è il momento di ricordare il tuo ultimo compleanno o di dare un tocco anime al tuo matrimonio.
Per attivare la funzione, l’utente deve acconsentire alle nuove condizioni Meta AI, che — sorpresa — consentono l’analisi dei “tratti facciali” delle foto, la data dello scatto e la presenza di altri soggetti. Si parla di “media e oggetti”, ma si legge: ogni fotogramma è un pezzo del tuo profilo predittivo. E se credi che basti non caricare nulla per salvarti, ricorda: il problema non è più la pubblicazione, ma il semplice possesso.
Nel migliore dei casi, il sistema esplora i contenuti della tua fotocamera “a rotazione”, analizzando fino a 30 giorni di immagini alla volta. Ma anche qui, come nei contratti assicurativi scritti in corpo 6, c’è l’asterisco: Meta dichiara che alcuni contenuti più vecchi potrebbero comunque essere considerati per temi emozionali rilevanti. Cioè, se hai ancora le foto del tuo cane morto nel 2017, potrebbero rispuntare per un collage a sorpresa. Non è chiaro se con lacrime artificiali.
Tecnicamente tutto è “opt-in” e disattivabile in ogni momento, ma siamo franchi: quanti utenti sanno davvero cosa stanno autorizzando? E quanti leggeranno fino in fondo una notifica che parla di “esperienza migliorata”? Il consenso informato si sta trasformando in un’illusione semantica, e la logica del “lo fanno tutti, quindi perché preoccuparsi?” è la più potente leva comportamentale della Silicon Valley.
Da un punto di vista giuridico, Meta si muove nel solito terreno grigio tra “consenso implicito”, “dato elaborabile” e “finalità compatibili”. In altre parole, non è importante se stai effettivamente offrendo i tuoi contenuti, ma se potresti essere convinto a farlo. E ogni singolo test, come questo, serve a spostare un po’ più in là il confine dell’accettabile. Intanto, l’informativa AI del gruppo non chiarisce se i dati acquisiti tramite cloud processing saranno esclusi dal training futuro. Spoiler: se non è escluso, è incluso.
Il confronto con Google è istruttivo. Big G ha dichiarato esplicitamente che i contenuti privati su Google Foto non vengono usati per addestrare modelli generativi. Una frase semplice, diretta, che Meta ha deciso di evitare con cura chirurgica. I portavoce di Menlo Park si limitano a ribadire che il test non coinvolge ancora il training. Come se lo scenario non fosse tanto se, ma quando.
E mentre l’attenzione pubblica si focalizza sul “diritto all’oblio”, Meta sembra piuttosto interessata al “diritto al ricordo coattivo”. Già oggi, alcuni utenti hanno scoperto modifiche IA alle loro foto caricate anni prima, senza che nessuno le avesse richieste. Una donna su Reddit ha raccontato di aver visto le proprie foto di matrimonio trasformate in uno storyboard in stile Studio Ghibli. Magari carino. Ma anche profondamente inquietante.
Tutto questo avviene mentre i sistemi di intelligenza artificiale hanno fame. Fame vera, insaziabile, di dati. Non solo testi, ma immagini, contesti, espressioni. Allenare un modello generativo all’altezza di Gemini o GPT-4o richiede miliardi di input. E le immagini private degli utenti rappresentano la materia prima più pura, quella che contiene emozione, spontaneità e soprattutto assenza di filtro. Il sogno di ogni sistema predittivo.
Si può anche ipotizzare che il vero obiettivo non siano solo i suggerimenti creativi. Potrebbe trattarsi di una preparazione lenta ma sistematica a un futuro in cui ogni istante visivo diventa potenzialmente monetizzabile tramite IA: dalle pubblicità personalizzate sulla base del contenuto visivo delle tue foto, al riconoscimento dei brand nei tuoi oggetti personali, fino alla creazione di avatar e ambienti 3D che ti “somigliano” senza averti mai scansionato ufficialmente.
La narrazione di Meta è sempre la stessa: rendere tutto “più facile”, “più creativo”, “più tuo”. Ma la verità è che nulla ti appartiene se non puoi decidere davvero quando esce da te. L’upload è diventato automatico, e il concetto di “non pubblicato” sta evaporando nella nebbia dell’AI restyling. È il nuovo modo di dire che se qualcosa è nella tua fotocamera, allora è già quasi pubblico.
Ci avevano promesso che l’intelligenza artificiale avrebbe potenziato la creatività. Invece, sta sezionando la spontaneità per catalogarla. Ci avevano detto che sarebbe stata uno strumento. Invece, sta diventando un’osservatrice perenne, in attesa che tu ceda all’ennesimo “Consenti” verde brillante. Anche se pensavi di avere ancora qualcosa da nascondere.