Non mi hanno invitato al party privato di Dior Cruise a Villa Albani. Né me, né mia sorella. Una mancanza imperdonabile, lei mi ha detto questione di gerarchia, Bho..sarà il mio outfit inadeguato… cosi’ che ho deciso di sublimare dedicando la mia serata, con gli avanzi della festa di ieri sera, alla versione beta di Gemini in Chrome, l’ultima trovata di Google per convincerci che l’AI non è solo un hype, ma una presenza “agente”, onnisciente e pronta a servire. Spoiler: no, non lo è. Ma ci stanno lavorando, e molto seriamente.
L’integrazione di Gemini dentro Chrome attualmente disponibile solo per gli utenti AI Pro o Ultra e solo sulle versioni Beta, Dev o Canary del browser è presentata come il primo passo verso un’esperienza “agentica”, ovvero un’intelligenza artificiale che non si limita a rispondere, ma che agisce. L’illusione della proattività. L’assistente che “vede” ciò che c’è sullo schermo, e lo commenta. Tipo il tuo collega passivo-aggressivo che legge ad alta voce ogni riga di codice che sbagli.
Ho provato a farlo lavorare come assistente redazionale. Gli ho chiesto di riassumere alcuni articoli di Rivista.AI, trovare notizie su Oracle e Abilene, commentare la homepage. In effetti, Gemini è riuscito a pescare l’annuncio del Finnacial times. Ma attenzione: vede solo ciò che tu rendi visibile sullo schermo. Se vuoi che legga i commenti, devi scrollare fino a mostrarli. Non può leggere nel DOM se tu non lo lasci fare. Un voyer digitale che ha bisogno del tuo consenso esplicito.
Il passaggio da tab a tab lo segue, ma sempre uno alla volta. Niente multitasking, niente analisi incrociata tra documenti. Per ora. Il che rende questa AI, più che “agentica”, un cane da guardia cieco, che abbaia solo quando gli punti il dito sul ladro.
Ma Gemini ha un asso nella manica: la modalità Live. Puoi parlargli. Letteralmente, anche se il mio Inglese è uguale ha quello di Lttle Italy. Clicchi in basso a destra e gli poni una domanda a voce. Lui ti risponde, sempre a voce. Sembra magico, finché non diventa una lunga, noiosa, enciclopedia che ti vomita addosso ogni virgola disponibile in rete, anche quando hai chiesto solo “che trapano sta usando?”. Un nail gun, risponde, dopo cinque secondi di sospensione teatrale. Applausi.
Sì, è utile. Ma solo se hai tempo da perdere. Come quando ha identificato correttamente un tasto su un sintetizzatore Behringer. Dettagli tecnici, finalmente. Ma appena il video su YouTube non ha i capitoli marcati, la magia svanisce. Gemini brancola nel buio come un boomers su TikTok.

Curiosità: ho provato a chiedergli di estrarre la ricetta da un video di cucina Gluten Free. Funziona. Ti dà ingredienti, dosi, tempi, e ti evita la fatica di cercare il link in descrizione, cliccarlo, chiudere il pop-up dei cookie, accettare le notifiche e scrollare 18 paragrafi di storytelling sulla nonna siciliana dell’autrice del blog. Solo per questo meriterebbe una standing ovation.
Ma è tutto qui? Non proprio. Gemini vorrebbe essere di più. Tipo quando gli chiedi dove si trovi MrBeast nel video girato a Chichén Itzá. Prima ti dice che non ha accesso a info in tempo reale, poi però ti cita la località scritta nella descrizione. Un’allucinazione? No, una goffa danza tra limiti imposti e voglia di stupire. Un po’ come Elon Musk che promette la guida autonoma ogni anno dal 2018.
Ho provato a chiedergli anche dove comprare una specifica chitarra in un video. Niente. Non può accedere a inventari o store in tempo reale. Però ti propone “prodotti simili”. Quindi sì, può comprare per te… solo quello che decide lui. Agente, sì, ma con la sindrome del personal shopper cieco.
E la UI? Comoda se hai uno schermo grande. Ma su un MacBook Air da 13 pollici, il popup sembra il baule di una Smart: provaci pure a farci stare tutto. Se vuoi un’informazione breve, devi chiederlo esplicitamente. Altrimenti ti arriva un pippone da 400 parole, con le domande follow-up “vuoi saperne di più?”, “desideri approfondire?”, “ti va di continuare?” che ti fanno rimpiangere Clippy di Microsoft Office.
Ora, ecco il vero punto: Gemini non è stato pensato per aiutarti a navigare. È stato pensato per essere il browser. O meglio: per diventare il tuo gestore personale di informazioni. Con Project Mariner, Google sta sviluppando la cosiddetta “Agent Mode”, in cui Gemini potrà gestire fino a 10 task contemporanei. Prenotare ristoranti, salvare video da YouTube nella tua playlist, fare ricerche viaggio e persino acquistare biglietti — tutte azioni “agenti” che oggi non fa, ma che domani diventeranno standard.
Quindi sì, Google sta puntando a creare un superbot che, a differenza degli altri assistenti vocali che abbiamo imparato a ignorare, sarà sempre lì, nel browser, nel motore di ricerca, nella tua mail, nel tuo Drive, nel tuo Android. Ovunque. A metà tra il maggiordomo digitale e il Grande Fratello.
Quello che ora sembra una funzione opzionale un pop-up con cui chiacchierare mentre cerchi la recensione di un ristorante diventerà presto l’interfaccia primaria dell’informazione. Gemini non sostituirà solo la tua ricerca. Sostituirà la tua volontà di cercare.
E quando Google saprà cosa vuoi prima ancora che tu lo sappia, allora non servirà più invitarti al party Dior. Ti avrà già rimediato degli inviti.
