Comincia il 20 maggio, sotto il sole accecante della California, l’evento annuale in cui Google smette di fingere di essere un motore di ricerca e si mostra per quello che è davvero: un’azienda che vuole colonizzare la tua giornata con intelligenze artificiali, API seduttive e sistemi operativi che ti leggono nel pensiero. Benvenuti al Google I/O 2025.

Gemini, Gemini, Gemini. Se ti pare di aver già sentito questo nome, hai ragione. Ma se pensi di aver già visto tutto, preparati a ricrederti. Perché quest’anno la parola d’ordine è integrazione profonda, o come la chiamano dalle parti di Mountain View: ambient AI. Non più solo modelli da testare sul browser, ma agenti intelligenti che vivono nei tuoi dispositivi, ovunque, sempre, e soprattutto prima che tu pensi di averne bisogno.

Il modello di punta, Gemini Ultra, si prepara a entrare in scena con due nuove declinazioni: Premium Plus e Premium Pro. Il nome stesso suona come una minaccia di upselling continuo. È un colpo di marketing chirurgico, certo, ma dietro c’è un piano molto più ambizioso: offrire prestazioni da supermodello linguistico con una personalizzazione che flirta pericolosamente con la tua privacy. Non si parla più solo di LLM. Si parla di agenti software che ti anticipano, ti consigliano, ti sorvegliano amorevolmente.

Nel backstage dell’evento, due nomi iniziano a trapelare come le voci di un nuovo album di una rockstar scomparsa: Astra e Mariner. Non sono software, sono esperienze. Così almeno dice il marketing. In realtà, sono il tentativo dichiarato di Google di battere OpenAI sul terreno più scivoloso e affascinante: gli assistenti AI multimodali, real-time, context-aware. Tradotto per i non iniziati: roba che capisce la tua voce, i tuoi gesti, le immagini, il tono del tuo cane e forse pure l’umore della tua suocera. E risponde in tempo reale. Con meno errori, più empatia finta e una faccia meno da chatbot.

Passiamo ad Android 16. No, non è il nome di un Terminator, ma potrebbe diventarlo. L’ultima versione del sistema operativo più diffuso del pianeta viene ripensata con un look che grida Material You, ma in versione 3. Espressività personalizzata, colori dinamici, animazioni più fluide — il tutto mentre ti spia meglio. Le notifiche diventano più intelligenti (o più invadenti?), si integrano nuovi widget nella schermata di blocco e — chicca nerd — arriva Auracast, la funzione che trasforma il tuo telefono in un emettitore Bluetooth per concerti silenziosi, conference call o semplicemente per disturbare il vicino.

Sul fronte della realtà mista, si riaccende un braciere che sembrava spento. Google rilancia con aggiornamenti su Android XR (la loro piattaforma extended reality) e Wear OS. L’idea è chiara: non è solo il telefono a essere “smart”. È tutto il tuo corpo che deve essere IA-compatibile. Occhiali, orologi, anelli: ogni superficie è buona per una notifica o un suggerimento basato su Gemini. Il corpo umano come interfaccia.

E mentre ti abitui all’idea di un assistente AI al polso, Google ti infila nel cervello altri strumenti ancora più subdoli. Il primo è NotebookLM, la piattaforma per prendere appunti “con l’aiuto di Gemini”. In pratica, tu scrivi e lui completa, riassume, riformula, revisiona. Tradotto: tu pensi di lavorare, ma è l’IA che fa curriculum. Poi c’è Veo 2, una bestia da riepilogo video che promette di guardare ore di contenuti per offrirti una sinossi brillante in tre secondi. Ottimo, così potrai dire “ho visto il documentario” senza averlo visto davvero.

E poi c’è il cuore oscuro di tutto questo: Gemma. Non è solo un altro modello open source, è l’alibi perfetto. Google lo presenta come “modello aperto”, ma è evidente che è un cavallo di Troia pensato per sedurre il mondo open-source e portarlo, con dolcezza, dentro l’ecosistema proprietario. Un ecosistema dove tutto è gratuito, fino al momento in cui non lo è più.

C’è chi dice che Google stia rincorrendo OpenAI e Microsoft, che sia in ritardo, che stia imitando. Ma è una lettura miope. Google ha sempre avuto un altro piano: non vendere IA, ma trasformare ogni esperienza digitale in un’esperienza alimentata da IA. Non servono killer app, serve ubiquità. Gemini diventa il layer invisibile sotto Gmail, Maps, YouTube, Android, Chrome. Non te ne accorgi nemmeno, finché non provi a farne a meno. Spoiler: non ci riesci.

Il Google I/O 2025 non è un keynote. È un test di penetrazione culturale. È il punto di svolta dove la grande G smette di giocare con i modelli e comincia a riplasmare l’interazione umana. Chi sviluppa, riceverà nuovi SDK, nuove API, nuove promesse di inferenze gratuite (almeno finché non ti abboni al Premium Pro). Ma chi vive, chi usa, chi semplicemente naviga, si ritroverà immerso in un mondo dove non sei tu a chiedere all’IA, è l’IA che ti parla prima che tu apra bocca.

Barista di fiducia dixit: “Un tempo avevamo l’oracolo di Delfi. Ora abbiamo Gemini Ultra Premium Pro. Ma almeno l’oracolo non chiedeva l’accesso alla cronologia.”