Nel grande luna park dell’innovazione tecnologica, ci sono attrazioni che si ripetono a intervalli regolari come i giri della giostra: intelligenze artificiali che diventano maggiordomi digitali, automobili che si guidano da sole, e… occhiali smart. Sì, quegli stessi occhiali che dieci anni fa ci hanno fatto vergognare dei nerd di Mountain View e oggi promettono di renderci cyborg da passerella. Ora che anche Google è tornata in pista, con Samsung e Gentle Monster a fargli da stylist, la battaglia sugli occhi del mondo è ufficialmente riaperta.
Tag: Google ’I/O 2025

Sergey Brin, cofondatore di Google e una delle menti più elusive della Silicon Valley, ha fatto un’irruzione improvvisa durante il fireside chat di Demis Hassabis, CEO di Google DeepMind, all’I/O 2025. Niente annunci ufficiali, nessuna slide: solo Brin, un microfono e quella consueta nonchalance da miliardario che non ha più nulla da dimostrare.
Quando il moderatore Alex Kantrowitz gli ha chiesto come trascorresse le giornate, Brin ha risposto con la sua tipica miscela di sarcasmo e understatement:
“Credo di torturare persone come Demis, che tra l’altro è fantastico.”
Poi, quasi come parlasse del suo hobby domenicale, ha aggiunto:
“Ci sono persone che lavorano sui modelli di testo Gemini, sul pretraining e sul post-training. Per lo più quelli. Ogni tanto mi immergo nel lavoro multimodale.”
Un modo molto Brin-style per dire: “Sto supervisionando le fondamenta dell’AI generativa destinata a riscrivere l’intero tessuto dell’economia globale.”
(Google post) Flow. No, non è un nome da codice segreto per una nuova droga sintetica, ma l’ennesimo tool con cui Google vuole convincerci che il futuro del video è un algoritmo che sogna. E mentre la Silicon Valley si diverte a giocare al piccolo Spielberg con modelli come Veo 3, Imagen 4 e compagnia cantante, il resto del mondo si chiede: serve davvero tutto questo? Spoiler: sì, ma non come pensano loro.
Benvenuti nell’era del browser che pensa per voi. Google ha ufficialmente piazzato il suo assistente Gemini dentro Chrome, annunciandolo con entusiasmo da palco durante il Google I/O. Sì, proprio lì, tra mille slogan e demo studiate al millisecondo. L’idea? Un browser che non si limita più a “navigare”, ma inizia ad “assistere” con quella premura un po’ inquietante di chi vuole fare tutto al posto tuo.

Vedere come ti sta un capo d’abbigliamento senza dover uscire di casa? ora google prova a trasformare questo desiderio in realtà, ma con una spruzzata di intelligenza artificiale che promette di rivoluzionare (o almeno complicare) il modo di fare shopping online.
Il nuovo esperimento, attivo in search labs negli stati uniti, ti permette di caricare una tua foto a figura intera e farti vedere come ti starebbe quella camicia, quei pantaloni o quel vestito che hai appena cercato su google. niente più modelli fissi, niente più immaginazione: l’algoritmo dice di “capire” il corpo umano e le sue mille pieghe, come i tessuti si drappeggiano, si stirano o si deformano su corpi diversi. insomma, una specie di sarto virtuale che lavora con pixel e deep learning.

L’ultimo gioiello di Google nel campo della generazione automatica delle immagini, Imagen 4, arriva con una promessa tanto ambiziosa quanto inevitabile in un settore che si evolve con la rapidità di un refresh di schermata: qualità strabiliante e precisione tipografica superiore. Dietro queste due semplici affermazioni si nasconde un’evoluzione che, seppur annunciata con la compostezza di un comunicato ufficiale, grida al mondo dell’AI: “Abbiamo fatto il salto di qualità.” Il vicepresidente di Google Deepmind, Eli Collins, non si risparmia in elogi, sottolineando la fusione “tra velocità e precisione” come il vero punto di forza di questa versione.

Ti ricordi quel momento al Google I/O 2024, quando hanno tirato fuori Project Astra, quella specie di intelligenza artificiale multimediale che ti osserva come un falco da cima al palo? No, non è un prodotto per il grande pubblico. Non ancora. È più un laboratorio mentale, un concept car tecnologico che Google usa per testare la fantascienza delle AI assistenti universali. Greg Wayne di DeepMind la definisce così, e non c’è nulla di più calzante: Astra è l’esibizione delle ambizioni più sfrenate di Google in tema di AI, un po’ come quel prototipo futuristico che vedi al salone dell’auto, troppo avanti per essere venduto, ma che ti fa già sognare.
Adesso però la situazione si fa più inquietante. Astra non si limita più a rispondere alle tue domande o a ricordarti dove hai lasciato gli occhiali usando la fotocamera dello smartphone. No, questa creatura sta imparando a intervenire senza che tu dica nulla, a diventare proattiva. Il che, detto in parole semplici, significa che ti sta spiando in continuazione, osserva, ascolta, giudica e decide quando è il momento di rompere il silenzio per dirti qualcosa. “Astra può scegliere quando parlare basandosi sugli eventi che vede”, e già questa frase fa venire in mente scenari da Grande Fratello in versione AI.

Avete presente quando cercate qualcosa su Google e vi ritrovate con una pagina piena di link azzurri da cliccare, sperando che uno di questi vi dia una risposta sensata? Bene, dimenticate tutto. Google ha deciso di mettere un chatbot alla guida della sua ricerca, chiamandolo AI Mode, un’anteprima di quella che sarà la rivoluzione totale nel modo di fare search online. Non è più solo “trova l’informazione e te la consegno”, ma “ragiono, sintetizzo, connetto, ti risolvo il problema”. Roba che nemmeno il miglior cervello umano potrebbe tenere a mente in tempo reale.
Google non sta facendo il miracolo dell’ultimo minuto, anzi, ci ha lavorato da quasi un decennio dietro le quinte. Quella “T” di ChatGPT non è un mistero: sta per transformer, tecnologia nata proprio nei laboratori Google nel 2017. Mentre tutti sembrano scoprire ora le meraviglie dell’intelligenza artificiale, Google annuncia senza mezzi termini “noi l’abbiamo inventata per primi, per la ricerca”. E non è una semplice curiosità da geek, è la base del prossimo salto evolutivo per chiunque cerchi informazioni online. Nick Fox, il capo dei prodotti legati alla conoscenza di Google, ha dichiarato che nei prossimi anni la ricerca sarà così diversa da oggi da essere praticamente un altro prodotto, più “intelligente” e meno “indifferente”.

Google ha appena lanciato il suo nuovo piano “AI Ultra”, una sottospecie di abbonamento d’élite alla sua AI Gemini 2.5 Pro con un prezzo che suona più come una minaccia che come una proposta: 249,99 dollari al mese. Una cifra che fa sembrare le bollette della luce un hobby. Ma tranquilli, c’è anche il contentino: uno sconto per i primi abbonati. Come dire: la prima dose è gratis, poi paghi caro.
Questo nuovo pacchetto non è solo un servizio. È un messaggio. Un’affermazione di potere. Di esclusività. Di un futuro dove l’accesso all’AI non sarà solo una questione di tecnologia, ma di classe sociale. “AI Ultra” suona come un club privato con la portinaia in tailleur e il caffè servito in porcellana.

C’è un momento, nel progresso tecnologico, in cui l’illusione di libertà si trasforma in un reality show a cielo aperto. Quel momento, per Google, ha un nome preciso: Live Search. Un’idea tanto brillante quanto inquietante, il cui debutto è stato ufficializzato all’I/O 2025 e che ora si appresta a diventare parte integrante di Google Search, nella sua nuova, tanto chiacchierata, AI Mode. La stessa modalità che promette di farci interagire con la rete come se fosse un assistente personale onnisciente. O, più verosimilmente, come se fosse la nostra mamma ficcanaso, ma con accesso a tutti i database del mondo.
Ma cosa fa davvero questo Live Search? Semplice: trasforma la tua fotocamera in un oracolo. O, più precisamente, in un canale diretto con l’intelligenza artificiale di Google, che guarda attraverso i tuoi occhi digitali e ti risponde in tempo reale su qualsiasi cosa tu stia inquadrando. Dal contenuto della tua dispensa, alla marca del vino sulla tavola del vicino, passando per quella pianta in soggiorno che continua a morire nonostante le tue attenzioni.