Google non smette mai di sorprendere quando si tratta di trasformare le nostre abitudini digitali in materia prima per la sua prossima grande rivoluzione. La promessa è semplice solo in apparenza, un’AI che ti conosce così bene da diventare indispensabile. La realtà è che questa promessa assomiglia sempre più a un salto acrobatico sopra un confine delicatissimo, quello che separa il servizio dalla sorveglianza. Chiunque abbia ascoltato l’intervista di Robby Stein, VP of Product di Google Search, nel podcast Limitless, ha percepito che la parola chiave è personalizzazione, seguita da un bisbiglio un po’ meno comodo, accesso ai dati personali.
Google ha individuato un filone redditizio nelle richieste degli utenti che ormai sembrano più confessioni che query. Consigli, raccomandazioni, interpretazioni soggettive. Il genere di domanda che un tempo facevamo a un amico fidato e che oggi, con la sicurezza di chi ha preso il tè con la propria AI, rivolgiamo a un algoritmo. Stein ha messo nero su bianco ciò che tutti sospettavano. Se l’AI conoscesse meglio l’utente, le sue risposte diventerebbero straordinariamente utili. Un tema che, detto da una piattaforma che controlla Gmail, Maps, YouTube, Drive e un mezzo universo di tracking, tende a generare un leggero solletico nella parte del cervello dedicata alla paranoia digitale.
Google non ha perso tempo ad ampliare la superficie di contatto dei suoi sistemi con le nostre vite. Da quando Gemini si chiamava ancora Bard, l’ambizione era chiara. Intercettare, indicizzare e comprendere ogni frammento di informazione generato dagli utenti all’interno del suo ecosistema. Oggi Gemini Deep Research pesca direttamente nelle email, nei documenti, nel calendario, nelle foto, nella cronologia delle posizioni e nel comportamento di navigazione. Le sue risposte promettono di diventare un oracolo personalizzato, calibrato sulle nostre preferenze più intime, come se fosse in grado di capire che tipo di sneaker preferiamo o quale brand ci induce un sorriso colpevole.
La narrazione ufficiale è che tutto questo renda l’AI incredibilmente utile. Ed è difficile contraddire la visione quando Stein spiega che la personalizzazione permette di offrire raccomandazioni su misura invece di una lista standardizzata dei best seller di categoria. La differenza tra un consiglio generico e un suggerimento altamente contestualizzato può essere abissale in termini di rilevanza. Un assistente virtuale che sa se preferisci la montagna al mare o se detesti il colore verde potrebbe sembrare il sogno di chiunque voglia tagliare il superfluo e ottenere solo ciò che conta davvero.
Chi ha guardato la serie Pluribus su Apple TV ha però già intravisto l’altro lato della medaglia. Gli Others, con la loro onniscienza totalizzante, offrono un servizio perfetto, cucinano il piatto preferito della protagonista Carol, imitano un volto familiare e anticipano desideri inespressi. Il risultato non genera comfort, ma inquietudine. Carol non ha mai acconsentito a cedere la propria identità a un sistema che la conosce troppo bene. La somiglianza con la traiettoria di Google non è casuale, anzi diventa un avvertimento narrativo travestito da intrattenimento.
La difficoltà nel sottrarsi a questa logica è il vero nodo problematico. Google dichiara che è possibile controllare le app collegate che permettono a Gemini di imparare qualcosa su di noi. Esiste una sezione di impostazioni chiamata Connected Apps dove l’utente può decidere cosa condividere. La dinamica però ricorda quella di certe casseforti. Sulla carta l’accesso è protetto, nella pratica non tutti leggono la combinazione prima di premere il pulsante accetta. Il dettaglio meno pubblicizzato è che la privacy policy di Gemini avverte che reviewer umani possono leggere parte dei contenuti e invita a non inserire informazioni riservate. Una raccomandazione che suona come un elegante esercizio di autoassoluzione preventiva.
La questione diventa ancora più sfumata quando entriamo nella mente collettiva dei sistemi AI di Google, un vero e proprio hivemind digitale che si arricchisce di nuovi dati a ogni interazione. È qui che l’idea di un assistente personale comincia a somigliare a un osservatore permanente. La distinzione tra supporto e intrusione dipende dalla nostra percezione, ma anche dalla trasparenza del sistema. Per questo Stein promette che Google indicherà quando la risposta dell’AI è personalizzata. Una soluzione di facciata che ricorda quelle etichette Suggerimento basato sulla tua attività, utili ma incapaci di risolvere il dilemma fondamentale.
Non sorprende che Google immagino un futuro di notifiche push inviate nel momento perfetto, quando un prodotto seguito da giorni diventa disponibile o scende di prezzo. La scenografia ideale di una piattaforma che non si limita a rispondere, ma ti accompagna nel percorso decisionale e talvolta anticipa i tuoi desideri con un tempismo che sfiora la divinazione. Il tutto con la naturalezza di un servizio che afferma di essere semplicemente utile, mentre osserva ogni nostro clic come un indizio psicografico da catalogare.
La keyword centrale che emerge da questa nuova fase è personalizzazione, mentre le correlate che la circondano come satelliti gravitazionali sono privacy dei dati e assistente AI, un trittico che definisce perfettamente il territorio strategico su cui Google intende combattere la sua prossima battaglia. Non c’è dubbio che la capacità di costruire un modello psicologico accurato dell’utente rappresenti un vantaggio competitivo immenso. Un’AI che comprende abitudini, preferenze e intenzioni diventa anche un motore di retention che nessun competitor può facilmente replicare.
La provocazione è che questa trasformazione non è solo tecnologica, è culturale. L’utente medio ha ceduto gran parte della propria privacy in cambio di convenienza. Il problema non è la raccolta dei dati, ma l’opacità del loro utilizzo futuro. Quando Stein dice che Google vuole essere incredibilmente utile in ogni aspetto della vita, si percepisce un’ambizione che supera il concetto di motore di ricerca e si avvicina all’idea di un intermediario universale. Una figura che non risponde più alle domande, ma le anticipa, le modella e le influenza.
La verità è che Google non vuole semplicemente sapere cosa cerchiamo. Vuole sapere chi siamo. La domanda che rimane in sospeso è se questo ci renderà più efficaci o più osservati. Un dubbio che persisterà finché la linea tra assistente AI e guardiano digitale resterà così sottilmente tracciata da sembrare un’illusione ottica.