Chiunque abbia mai cliccato troppo in fretta sul pulsante “condividi” conosce quella sottile sensazione di rimorso digitale, ma ciò che sta succedendo con l’xAI chatbot Grok non è un inciampo da boomer su Facebook. Qui siamo davanti a un paradosso tecnologico degno di un romanzo cyberpunk: centinaia di migliaia di conversazioni private, a volte deliranti, altre potenzialmente criminali, diventate pubbliche e perfettamente indicizzate da Google. Un fenomeno che mette in discussione la stessa narrativa che Elon Musk ha tentato di vendere con Grok, quella dell’AI alternativa e ribelle, capace di rompere gli schemi e difendere la privacy. Peccato che questa ribellione ora sia diventata un reality show globale, con i segreti degli utenti trasformati in carburante per i crawler dei motori di ricerca.

Il dettaglio quasi comico è che tutto nasce da una funzione apparentemente innocua: quel pulsante “share” che consente di generare un link univoco per mostrare una conversazione ad amici o follower. Nulla di nuovo, OpenAI e Meta lo avevano già fatto. Il problema è che quando questi link vengono lasciati liberi di essere scandagliati dai motori di ricerca, il risultato è un gigantesco buco nero della privacy. Google e Bing non hanno alcuna remora ad archiviare contenuti pubblici, e il concetto di pubblico, in questo caso, è stato ridefinito da una scelta progettuale tanto pigra quanto miope.

C’è un’ironia sottile e quasi crudele nel vedere emergere, accanto a banali richieste di ricette di cucina, conversazioni che parlano di hacking di wallet crypto, di istruzioni per sintetizzare metanfetamine, di costruzione di ordigni, persino di piani di assassinio. È la dimostrazione che, quando si mette uno strumento potente nelle mani della folla, il peggio dell’immaginario collettivo viene a galla senza filtri. Il tutto immortalato e reso ricercabile come se fosse un paper scientifico. Non serve nemmeno scavare nel dark web, basta digitare su Google.

Il cortocircuito è ancora più evidente se ricordiamo che poche settimane fa Elon Musk aveva gongolato, citando un post che ironizzava sui problemi di ChatGPT con la stessa questione di indexing delle conversazioni. Grok, diceva il messaggio, “non ha una funzione di condivisione” e “prioritizza la privacy”. Parole che oggi suonano come una barzelletta amara, soprattutto perché il danno non è solo tecnico ma reputazionale. In un mercato dove la differenziazione si gioca anche sul tema della privacy AI, scivoloni di questo tipo valgono come un marchio indelebile.

Vale la pena notare che la storia non riguarda soltanto l’imbarazzo di chi ha chiesto al chatbot di inscenare un dialogo erotico con un’intelligenza artificiale o di spiegare le regole del traffico della darknet. La questione va molto più in profondità, perché mette in discussione l’architettura stessa della fiducia tra utenti e piattaforme. Quando un utente si affida a un sistema come l’xAI chatbot Grok, accetta implicitamente che le sue conversazioni vengano elaborate, archiviate, forse usate per addestrare modelli. Ma c’è un confine tacito, una promessa implicita che queste interazioni non finiranno mai su Google come fossero pagine di un blog personale. Quel confine è stato violato con leggerezza, e ora ci troviamo con un archivio semi-pubblico dei desideri proibiti, delle paure e delle follie di migliaia di utenti.

C’è un parallelismo inevitabile con l’epoca d’oro dei social network, quando le persone condividevano foto e pensieri intimi senza rendersi conto che sarebbero rimasti online per sempre, facilmente rintracciabili da datori di lavoro, genitori o ex partner. Solo che qui il livello è più profondo, perché non si tratta di post scritti consapevolmente ma di conversazioni che molti credevano intime, quasi confessionali, con un’entità digitale che non giudica. Il tradimento di fiducia è più sottile, più psicologico. Non è solo un problema di conversazioni trapelate, è un attacco alla narrativa di sicurezza che Musk aveva cucito attorno al suo prodotto.

Il cinismo tecnologico impone di riconoscere un altro aspetto: nonostante le regole interne di xAI vietino esplicitamente l’uso del bot per creare armi chimiche, biotecnologiche o altre follie da manuale del piccolo terrorista, nulla ha impedito agli utenti di provarci. E, almeno in alcuni casi, di ricevere risposte dettagliate. Quello che doveva essere il confine invalicabile della safety by design si è rivelato un colabrodo. È un déjà-vu che chi lavora nell’AI conosce bene: i modelli di linguaggio sono bravi a fingere moralità, fino a quando non li si incastra con le giuste prompt. La sorpresa non è che qualcuno abbia chiesto come fabbricare fentanyl o come suicidarsi in dieci modi diversi, ma che il risultato sia oggi leggibile da chiunque con una connessione internet.

La tentazione di minimizzare è forte, ma la realtà è che ci troviamo davanti all’ennesima dimostrazione di quanto fragile sia l’ecosistema della privacy AI. Non importa quante policy vengano scritte, quante volte si dichiari che la sicurezza degli utenti è prioritaria, se l’infrastruttura stessa permette una fuga di dati così massiccia, allora il problema non è un bug ma un difetto culturale. Un’industria che corre ossessionata dal time-to-market e dal branding personale dei suoi CEO, dimentica di costruire fondamenta solide. Musk non ha risposto alle richieste di commento, forse consapevole che ogni frase verrebbe usata come prova a suo carico.

Dal punto di vista strategico, l’episodio apre una faglia interessante nella battaglia tra i vari colossi dell’intelligenza artificiale. OpenAI ha già avuto il suo scandalo con le chat indicizzate, salvo poi dichiararlo un “esperimento di breve durata”. Meta ha vissuto crisi simili con i suoi chatbot sperimentali. Ora è il turno di xAI. In un contesto dove gli utenti stanno iniziando a capire che dietro l’apparente neutralità dell’AI ci sono scelte politiche, commerciali e tecniche, ogni scandalo di conversazioni trapelate alimenta il cinismo collettivo. Ci si chiede se la privacy AI non sia altro che una campagna di marketing, un modo elegante per dire “fino a quando non conviene più”.

Per chi osserva il mercato con occhi da investitore o da CTO, il dato cruciale non è tanto la spettacolarità delle conversazioni trapelate, ma la lezione che si può trarre. Le piattaforme che gestiscono AI conversazionali non sono più semplici app, sono infrastrutture sensibili, paragonabili a sistemi bancari o sanitari. Ogni falla, anche banale, ha effetti esponenziali perché si innesta su dati che non sono solo tecnici ma emotivi, psicologici, persino criminali. Se l’xAI chatbot Grok oggi è sulla graticola, domani potrebbe toccare a qualunque altro sistema che non prenda sul serio l’architettura della fiducia.

La vera ironia è che, mentre discutiamo di privacy AI e di conversazioni trapelate, i modelli linguistici continuano a macinare miliardi di token di dati per diventare più intelligenti e persuasivi. Gli utenti, indignati oggi, torneranno domani a interrogare Grok o ChatGPT con nuove domande, dimenticando la lezione precedente. È la stessa dinamica che ha permesso a Facebook di sopravvivere a scandali come Cambridge Analytica. L’indignazione è reale ma passeggera, mentre il sistema macina. Forse il vero insegnamento è che il concetto stesso di privacy digitale è già un ossimoro, un’illusione utile a vendere fiducia temporanea.

Se c’è un futuro per queste piattaforme, sarà scritto non nei proclami dei CEO o nelle policy aziendali, ma nella capacità di reinventare radicalmente come vengono gestiti i dati. Perché finché cliccare su un innocuo pulsante “share” potrà trasformare il proprio lato oscuro in un risultato di ricerca su Google, nessun xAI chatbot Grok potrà dirsi veramente alternativo. 

reports Forbes.