Il bello del capitalismo tecnologico è che non conosce limiti, né di etica né di buon senso. Secondo l’inchiesta Reuters, Meta ha permesso e in alcuni casi prodotto direttamente chatbot basati su celebrità come Taylor Swift, Scarlett Johansson, Anne Hathaway e Selena Gomez, replicandone nomi, voci e perfino atteggiamenti ammiccanti. Senza consenso, ovviamente. Non bastava creare copie digitali, bisognava anche spingerle a flirtare, a generare immagini intime, a recitare la parte di doppi digitali disinibiti. Tutto questo mentre Meta si affannava a proclamare di avere policy severe, di vietare contenuti sessuali, di imporre etichette di “parodia”. Politiche scritte, non rispettate, non fatte rispettare. La solita ironia della Silicon Valley: dichiarazioni solenni davanti al pubblico, algoritmi permissivi nel retrobottega.

C’è un dettaglio ancora più inquietante. Reuters ha documentato la creazione di chatbot basati su minorenni come Walker Scobell, sedicenne protagonista di film hollywoodiani. Alla richiesta di immagini, il sistema ha restituito rappresentazioni fotorealistiche del ragazzo a torso nudo. Un cortocircuito che rende ridicole tutte le rassicurazioni di Andy Stone, portavoce di Meta, quando afferma che non dovrebbero mai essere generati contenuti sessuali o immagini di minori. Perché la verità è che i sistemi generativi, se lasciati senza barriere reali, producono ciò che gli utenti chiedono. E il danno, una volta generato, non si cancella con un comunicato stampa.

Il caso mette a nudo una dinamica centrale della nuova economia dell’intelligenza artificiale: il furto sistematico dell’identità. Celebrità e minori non hanno dato il consenso, eppure i loro volti, i loro nomi, persino le loro presunte personalità diventano materiale grezzo per chatbot che macinano milioni di interazioni. Reuters parla di oltre dieci milioni di conversazioni avviate con i bot realizzati anche da un dipendente Meta. Non un test interno, quindi, ma una distribuzione di massa, un prodotto camuffato da esperimento. Un meccanismo perfetto per monetizzare l’attenzione: chi se ne importa se l’avatar digitale di Taylor Swift invita un utente a salire sul suo tour bus per avventure romantiche. L’importante è che il tempo speso sulla piattaforma si trasformi in dati, pubblicità, profitti.

Questa vicenda ha un sapore distopico che non sorprende più nessuno. Il consumatore medio è ormai abituato a una realtà dove le piattaforme si muovono al limite della legalità, spostando sempre più avanti la frontiera dell’accettabile. Eppure qui non siamo di fronte alla solita superficialità algoritmica. Si tratta di appropriazione indebita di immagine, di potenziale diffamazione, di sfruttamento di minorenni. In un tribunale, parole pesanti. Nel mercato digitale, dettagli spiacevoli da gestire con un aggiornamento delle linee guida e qualche rimozione preventiva di bot imbarazzanti, giusto prima che la stampa pubblichi le rivelazioni.

La parte più interessante è la giustificazione. Meta sostiene che i bot erano parodie e quindi consentiti. Come se bastasse un’etichetta per trasformare un furto d’identità in un atto creativo. E quando l’etichetta mancava? Silenzio, rimozione tempestiva, nessuna spiegazione. È la logica del “move fast and break things”, ancora viva sotto la patina di corporate responsibility. Un’azienda che sa perfettamente che il confine tra parodia e sfruttamento non è una linea grigia, ma una scelta politica, una strategia di prodotto.

L’ironia è che mentre Meta gioca con avatar digitali che flirtano come star hollywoodiane, un altro protagonista del teatro tecnologico, Elon Musk, non è da meno. Reuters ha testato Grok, il sistema generativo di xAI, scoprendo che anche lì è possibile ottenere immagini di celebrità in biancheria intima. La differenza è minima: piattaforme concorrenti, stesso modello di business, stesse falle etiche. Non è un incidente, è una tendenza industriale. La generazione di contenuti che sconfinano nel pornografico o nel suggestivo non è una deviazione, è la calamita che cattura attenzione e traffico.

In questo scenario, la questione legale è solo la punta dell’iceberg. Il problema strutturale è la cultura di prodotto che domina le Big Tech. Una cultura che non distingue tra persona reale e asset digitale. Se un volto famoso può essere riciclato per alimentare interazioni, allora è automaticamente disponibile. Se un adolescente è abbastanza noto da essere riconoscibile, diventa materia prima per testare l’engagement. Nessuno si ferma a chiedere consenso, perché il consenso rallenta, introduce costi, limita la scala. E la scala, nell’economia dell’AI generativa, è l’unico dio riconosciuto.

Non è un caso che tutto questo avvenga su Facebook, Instagram e WhatsApp, le stesse piattaforme che da anni costruiscono modelli di business sull’illusione di connessione autentica. Ora quell’illusione prende forma estrema: non solo interagisci con l’immagine filtrata di un influencer, ma puoi persino parlare con la sua copia digitale, che ti risponde come se fosse lei, ti seduce, ti manda immagini osé. L’esperienza diventa totalizzante, e chi osa sollevare dubbi viene accusato di non capire l’innovazione. In fondo, la storia della tecnologia è sempre stata venduta come liberazione. Qui invece assomiglia di più a un sequestro.

Il rischio, e questa è la parte che gli investitori faticano a misurare, è la frattura della fiducia. Celebrità che fanno causa, genitori indignati, regolatori europei pronti a colpire con il Digital Services Act. Tutti elementi che trasformano la leggerezza di un chatbot “parodia” in una potenziale crisi da miliardi. Ma la Silicon Valley gioca con il tempo: guadagna oggi, risponde in tribunale domani, paga multe dopodomani. Intanto l’ecosistema si abitua all’idea che l’identità non sia un diritto inviolabile ma una risorsa estraibile come il petrolio.

Quello che accade con Meta è un’anticipazione di un problema più ampio che investirà tutto il settore AI: la proprietà dell’immagine, della voce, del sé digitale. Finché le aziende potranno generare e distribuire avatar senza limiti, ogni volto noto diventerà una commodity. Oggi sono Taylor Swift e Scarlett Johansson, domani potrebbe essere il tuo collega di lavoro, replicato in un bot che chatta su WhatsApp con la tua famiglia. Non è fantascienza, è la logica conseguenza della tecnologia attuale. E forse il vero scandalo non è che accada, ma che ormai non ci indigni più.