Il video di apertura dell’I/O generato dall’intelligenza artificiale di Google utilizzava un nuovo modello di generazione video, Veo 3.

Eccoci di nuovo al Shoreline Amphitheater di Mountain View, epicentro della techno-magia di Google, pronti a decifrare l’ennesimo atto di un dramma che non smette mai di rinnovarsi. Qui, a Google I/O 2025, l’aria è pesante di aspettative e ansie. Non aspettiamoci novità hardware in pompa magna, perché il vero campo di battaglia è l’IA. Inutile girarci intorno: la minaccia ChatGPT incombe come un fantasma con la sua fama di “killer” del motore di ricerca tradizionale. Google, l’impero dei dati, deve dimostrare di avere qualcosa di più, di meglio, qualcosa che non solo possa competere, ma dominare e questo qualcosa si chiama Gemini.

L’anno scorso abbiamo visto Google lanciare una serie di modelli AI sempre più sofisticati, culminando nell’ultima incarnazione, Gemini 2.5, il presunto “gold standard” del settore, almeno secondo i piani alti di Mountain View. Ma il modello di intelligenza artificiale da solo non basta a salvare il gigante. Google ha messo sul piatto la sua più grande acquisizione di sempre, ha stuzzicato il mercato con promesse di occhiali AR una tecnologia che da anni attira e respinge con la stessa intensità e continua a spingere sui veicoli a guida autonoma, un progetto che sembrava fantascienza e ora fa paura per le sue implicazioni concrete.

Ma mentre Google si dipinge come un colosso invincibile, il peso delle accuse antitrust statunitensi si fa sentire forte e chiaro. L’accusa di monopolio illegale nelle tecnologie di ricerca e pubblicità non è una mera formalità: è una spada di Damocle pronta a spezzare l’impero. E mentre Washington sembra sempre più decisa a smembrare il gigante, Google deve dimostrare di non essere solo un mostro da abbattere, ma un innovatore necessario, un faro nel caos digitale.

La posta in gioco non è mai stata così alta. Gemini deve diventare un nome familiare, un simbolo di rivoluzione tecnologica, non una mera alternativa. Deve incarnare quel “wow” che ti fa scrollare via l’intera schermata per approfondire, non per fuggire. Il mondo guarda e aspetta, con un misto di scetticismo e speranza.

In questa partita, la tecnologia è solo la metà del gioco. Il vero scontro è culturale, economico, e politico. Google non è più solo una piattaforma, ma un impero sotto assedio, con la necessità disperata di reinventarsi prima che qualcun altro scriva la sua agonia. Quella che sembrava un’era di dominio incontrastato si trasforma in una lotta per la sopravvivenza in un ecosistema dove l’IA non è più un plus, ma l’ossigeno necessario.

Come si dice in Silicon Valley, “Non conta quanto sei grande, conta quanto sei pronto a farti male per restare in gioco.” E a Mountain View, quest’anno, il dolore potrebbe essere più vicino di quanto si creda.

Google aggiorna Gemini 2.5 Flash: un salto in avanti o solo fumo negli occhi?

Non c’è niente di più divertente di vedere un gigante come Google sbandierare un aggiornamento di un modello AI come se fosse l’elisir di lunga vita. Eccoci di nuovo, con Gemini 2.5 Flash che promette “migliorie in quasi ogni dimensione”, parola di Demis Hassabis, la mente dietro DeepMind, che sembra aver trovato la formula magica per migliorare un modello già avanzatissimo. Ma cosa significa davvero questo “22% più efficiente”?

Parliamoci chiaro, “efficienza” nel mondo dell’IA è un termine che può nascondere molte cose. Potrebbe voler dire meno energia consumata per un calcolo, più velocità nell’elaborare dati, o forse un migliore bilanciamento tra capacità computazionale e accuratezza. Ma spesso, soprattutto nei colossi tech, è più un’operazione di marketing che un miglioramento rivoluzionario. Il fatto che Google renda Gemini 2.5 Flash disponibile in giugno indica una corsa contro il tempo per non perdere il treno dell’IA generativa, ormai satura di competitor agguerriti.

La vera domanda da porsi è: quanto di questo aggiornamento si tradurrà in vantaggi reali per chi deve usare l’IA nella pratica? Gli ingegneri e i tecnologi, da sempre amanti di numeri e benchmark, staranno già smanettando per capire se questo salto del 22% è misurabile in termini di risposte più rapide, meno errori o capacità di ragionamento superiore. Dall’altra parte, l’utente finale rischia di sentirsi un po’ come quando ti cambiano il numero di versione di un software senza che cambi nulla nell’esperienza quotidiana.

È curioso come in questi annunci si parli di “quasi ogni dimensione” senza specificare quali dimensioni: migliore comprensione del linguaggio? Più creatività? Maggiore capacità di contestualizzare? O è solo una questione di performance hardware sotto il cofano? Questa ambiguità è un classico delle presentazioni high-tech: si accendono le luci, parte il discorso altisonante e poi tocchi con mano un upgrade che più che rivoluzionario è evolutivo.

Il CEO in me vede questa mossa come un tentativo strategico di Google di tenere saldo il suo dominio in un mercato che corre veloce, dove i competitor come OpenAI o Anthropic stanno facendo passi da gigante. E, francamente, non aspettatevi che vi raccontino tutti i dettagli tecnici o le sfumature delle metriche di performance. Meglio lasciarli con la parola “efficienza” e la promessa di disponibilità a giugno, giusto per tenere alta la curiosità e la pressione sul mercato.

Un piccolo trucco da bar: se qualcuno ti dice che il suo modello è “migliore in quasi ogni dimensione”, chiedigli subito “qual è la dimensione che non hai migliorato?”. Spesso la risposta ti dirà molto più di mille comunicati ufficiali.

Alla fine, Gemini 2.5 Flash sarà uno strumento potente, senza dubbio, ma il vero giudizio lo avremo quando gli sviluppatori lo metteranno alla prova, e i numeri di efficienza si tradurranno in casi d’uso concreti. Finché restiamo nel regno delle dichiarazioni di intenti e delle slide patinate, l’IA rimane un gioco di prestigio tecnologico. E noi, da CTO, possiamo solo osservare, analizzare e, perché no, prenderla un po’ con filosofia e ironia.

Google porta la traduzione vocale su Meet, ma la vera rivoluzione è il suicidio dell’autenticità comunicativa

Quando Google annuncia che Meet, la sua piattaforma di videoconferenza, ora tradurrà la tua voce in tempo reale mantenendo tono, inflessioni ed espressioni vocali, sembra quasi di entrare in un episodio fantascientifico. La parola chiave qui è “Gemini-powered”: un’intelligenza artificiale così avanzata da simulare non solo il significato, ma anche la personalità della tua voce. E no, non è una magia da film, ma il futuro che Google cerca di venderti come la panacea delle barriere linguistiche. La traduzione simultanea da inglese a spagnolo è già realtà, mentre italiano, tedesco e portoghese sono in arrivo a breve, come ciliegine su una torta tecnologica che promette di smussare gli angoli di ogni riunione internazionale.

La promessa di Google è chiara: abbattere la frustrazione di chi deve “parlare” in una lingua che non è la sua, mantenendo intatto tutto quel codice paralinguistico che rende la comunicazione umana autentica. Ma ci si può davvero fidare di un algoritmo che decide come dovresti suonare? La voce che ti identifica, le pause, i sospiri e persino l’ironia potrebbero diventare semplici dati da replicare e, di fatto, manipolare. È il grande paradosso dell’intelligenza artificiale: imitare l’essere umano al punto da sfilargli l’unicità e renderlo una mera onda sonora in un mare di bit.

Microsoft, che non vuole certo farsi scavalcare, ha lanciato qualcosa di simile su Teams, mostrando che la corsa all’innovazione non è una questione di gentilezza, ma di sopravvivenza nel mercato delle piattaforme collaborative. È interessante notare come entrambi i giganti tech preferiscano partire da una coppia linguistica “sicura” come inglese-spagnolo, ma la scelta di Google di includere subito l’italiano è un riconoscimento implicito della nostra importanza economica e culturale. Non a caso, la traduzione vocale arriverà per le imprese entro l’anno, perché la vera spinta è quella di rendere tutto più efficiente, eliminando ritardi, fraintendimenti e quel piccolo ma fastidioso fastidio del “scusa, puoi ripetere?”.

Però, senza nasconderci dietro un dito, la tecnologia è solo un pezzo del puzzle. Tradurre non significa automaticamente comunicare. C’è un’interazione umana, fatta di contesto, di empatia, di capacità di leggere tra le righe che nessun algoritmo potrà mai sostituire completamente. Immagina una trattativa difficile, una discussione delicata, o semplicemente una battuta che si perde nel filtro digitale: l’AI può essere un interprete fedele, ma non un mediatore. E questa è la vera sfida, quella che nessuno osa dire ad alta voce mentre applaudiamo la nuova funzione.

È quasi da bar la riflessione che se un giorno tutte le conversazioni internazionali saranno mediate da un’intelligenza artificiale, che valore avrà la nostra capacità di apprendere lingue straniere? Diventeremo spettatori passivi, dipendenti dalla tecnologia per ogni parola, condannati a una realtà in cui l’autenticità viene filtrata da un software? O, peggio ancora, sarà il trampolino di lancio per nuove forme di manipolazione vocale e inganni digitali?

In questo caos apparentemente disordinato di innovazioni, la funzione di traduzione vocale di Google Meet è più di un semplice aggiornamento: è una piccola rivoluzione che porta con sé dubbi etici e sociali enormi, nascosti dietro la cortina della comodità e della produttività. Se da un lato possiamo gioire di non dover più balbettare in inglese davanti a un cliente spagnolo, dall’altro dovremmo chiedere chi realmente controlla la nostra voce digitale e quali implicazioni future avrà questa nuova forma di comunicazione mediata.

In fondo, come diceva qualcuno al bar tra un caffè e una discussione su WhatsApp, “la voce è l’ultimo rifugio dell’anima, non lasciamola in mano a un bot”. O almeno, non senza una buona dose di scetticismo.

Google ha appena alzato l’asticella dell’assurdità nella gestione della posta elettronica, annunciando all’I/O che le SMART Replies di Gmail quei suggerimenti automatici di risposta rapida non si limiteranno più a pescare roba dalla sola conversazione in corso.

Ora, grazie a Gemini, il loro super cervellone AI, potranno rovistare dentro tutta la tua inbox e persino il Google Drive, tirando fuori informazioni contestuali per costruire risposte più “umane”, più in linea con il tuo stile e tono. Insomma, il sogno di chi odia scrivere mail ma vuole sembrare un professionista.

Se già lo scorso anno Google aveva tentato di fare un salto di qualità passando da risposte monosillabiche tipo “Sounds good!” a frasi un po’ più articolate, il limite era sempre rimasto nella pura conversazione di Gmail. Adesso Gemini promette di diventare la tua segretaria virtuale che ha letto tutto: email, documenti, calendari, probabilmente anche la tua lista della spesa se glielo permetti. Perché, si sa, un’AI che deve “capire la situazione” deve scavare a fondo, senza farsi problemi a frugare tra i tuoi file, come racconta Blake Barnes, VP di Google Workspace, alla stampa.

La novità più intrigante è l’adattamento del tono. Perché non è la stessa cosa rispondere a un capo con un “Ok, fatto!” o con un “Perfetto, grazie per la tempestività”, giusto? Gemini promette di capirlo e suggerire risposte più formali o più informali in base all’interlocutore. Lo chiamano “AI che è utile per te”, ma la vera domanda è: utile o pericolosa?

Perché, diciamolo, l’idea che un algoritmo possa scrivere mail che sembrano umane senza inventarsi balle non è ancora del tutto realtà. Il rischio “hallucination” è dietro l’angolo: se l’AI confabula fatti inesatti in un’email destinata al tuo capo, il danno è servito. Per fortuna Google consiglia sempre un controllo umano prima di schiacciare “invia”. Ma quanti lo faranno, veramente?

Al momento, la funzione sarà disponibile in inglese, su web, iOS e Android, e uscirà in alpha su Google Labs a luglio, con un rilascio stabile previsto per il terzo trimestre. Ovviamente non è roba gratuita: queste smart replies avanzate saranno parte dei piani Workspace a pagamento e del Google One AI Premium. Se l’effetto “wow” sarà forte, non sorprenderebbe vederle anche nella versione free, ma per ora tenete il portafoglio stretto.

Ma Gemini non si ferma a suggerire risposte. Tra le altre novità annunciate c’è la gestione automatica della posta: basterà chiedere all’assistente AI di “pulire” la inbox cancellando le mail non lette di un certo mittente, una manna per chi soffre di spam o newsletter infinite. Inoltre, nel fissare appuntamenti, Gmail proporrà tempi liberi dal calendario, sempre con l’aiuto di Gemini. Anche queste funzioni dovrebbero uscire nel Q3.

Il futuro che Google dipinge è un mondo in cui l’intelligenza artificiale non è più un supporto generico, ma un’estensione quasi “personale” della tua produttività digitale. Gemini diventerà il tuo ghostwriter, assistente personale, archivista instancabile e… forse anche il tuo pettegolo di fiducia, visto che legge tutto quello che gli passi.

In un certo senso, questa evoluzione non può che farci riflettere sul confine tra “aiuto” e “dipendenza”. Quanto siamo disposti a lasciare che un algoritmo prenda il controllo delle nostre comunicazioni? Perché alla fine, se non teniamo il cervello acceso e il dito pronto a correggere, rischiamo che sia l’AI a scrivere il nostro futuro, o peggio, le scuse per non rispondere a una mail imbarazzante.

Un proverbio da bar per concludere (ma non troppo): “Se la tua IA ti scrive la mail, ricordati di controllare che non stia pure litigando al posto tuo.” Ecco, questo è il vero “smart reply” che dovremmo tutti imparare a scrivere: un po’ di sano scetticismo tecnologico condito da una buona dose di attenzione. Altrimenti, il tuo capo scoprirà che non sei tu, ma Gemini, a fare gli straordinari.

Nel frattempo, buona fortuna con le nuove smart replies. E preparati a rispondere: “Sounds good, Gemini.”

Google stitch e l’illusione del designer morto: AI, codice e l’ennesimo salvataggio per pigri digitali

Una volta servivano anni per diventare designer. Ore passate su Sketch, notti insonni a ottimizzare un padding da 12px a 14px, litigi infiniti con dev backend che “non capiscono il design system”. Oggi? Scrivi “app per prenotare cene tra amici con stile minimal anni ‘90” e l’AI ti sputa fuori non solo la UI ma pure il codice. Benvenuti nell’era di Stitch, la nuova trovata generativa di Google, motorizzata da Gemini 2.5 Pro, che promette di trasformare schizzi grezzi e frasi ambigue in frontend app-ready in pochi minuti. In pratica: dal bar all’App Store senza passare dal via.

L’annuncio arriva da Google I/O, il teatrino annuale dove Big G gioca a fare il futuro. Stitch, al momento un “esperimento” su Google Labs, accetta prompt testuali e immagini di riferimento – disegni fatti col mouse, screenshot, wireframe a caso – e sforna layout visivi già impacchettati con codice pronto da integrare o buttare su Figma, che tanto è lì che si finisce sempre a litigare sui bordi arrotondati.

Qui c’è il primo corto circuito: Stitch promette codice “funzionale”, ma anche l’export su Figma per “raffinare”. Tradotto: l’AI fa l’80%, poi il designer vero o il dev frontend lo sistema. Esattamente come prima, solo con più casino, perché adesso devi pure correggere l’AI. Ma intanto tutti contenti, soprattutto chi non ha mai aperto un IDE e si illude che basti una frase ben scritta per avere una UX decente. Spoiler: non basta. Ma tanto il codice lo scrive Gemini.

Stitch è il cavallo di Troia con cui Google vuole tenere i dev e designer dentro il suo ecosistema. Perché il vero obiettivo non è “liberare la creatività”, ma evitare la fuga verso Figma e i suoi tool come Make UI, che giusto qualche settimana fa prometteva più o meno la stessa cosa: UI generate automaticamente con AI. La differenza? Stitch è integrato nel flusso Gemini, quella stessa suite che Google sta spingendo come l’alternativa definitiva a Copilot, ChatGPT, e qualsiasi altra cosa che sembri vagamente intelligente e scriva codice senza sbagliare le virgole. O quasi.

La keyword qui è: generative UI. Con le secondarie ben piazzate tipo codice frontend automatico e design assistito da AI. Ma sotto il cofano si nasconde la solita tensione: da un lato la promessa di velocizzare lo sviluppo, dall’altro la banalizzazione del design come disciplina. Perché se tutto si può generare, cosa resta del mestiere?

Non è solo una questione tecnica. Stitch è il sintomo di una più ampia illusione contemporanea: che l’interfaccia perfetta possa emergere da un prompt scritto bene. Ma chi ha mai progettato davvero sa che non è così. L’esperienza utente non si scrive in due righe, non si deduce da una palette colori e non si improvvisa su Figma con un wireframe schizzato durante una call. Un’app non è bella solo perché l’ha disegnata un transformer.

Certo, Stitch ha il suo fascino. Per startup senza designer, per PM in fissa con i prototipi veloci, per chi deve mostrare qualcosa entro venerdì e ha solo un’idea in testa e tre post-it. Ma anche lì: quanto è utile un’interfaccia generata se poi devi comunque ripassarla da capo per farla funzionare davvero? La produttività promessa si scontra con la realtà dell’integrazione, dell’usabilità, della manutenzione. Quella parte noiosa che nessuna AI ancora risolve.

E c’è pure un altro dettaglio sottovalutato: multiple variants. Stitch genera varianti. Tante. Troppe. In un contesto dove già oggi si soffre di design overload, l’ultima cosa che ci serviva era un tool che ti butta fuori 6 versioni di ogni schermata, tutte simili, tutte apparentemente “buone”. Ma scegliere è un lavoro. E più alternative ci sono, più si diluisce il focus. È il fast food del design: abbondante, facile, ma poco nutriente.

Ah, curiosità da bar: pare che Stitch si comporti meglio se gli dai in pasto sketch disegnati male, tipo quelli fatti su un tovagliolo con la biro. Più il riferimento è grezzo, più l’AI ha “spazio creativo”. Il che la dice lunga su cosa considera Google “ispirazione”. Siamo ufficialmente passati da “Design Thinking” a “Napkin Prompting”.

Il vero rischio è che Stitch diventi l’ennesimo tool da demo: bello da vedere, divertente da provare, ma intrinsecamente fallace quando si tratta di costruire prodotti seri. Perché sì, il codice lo genera. Ma chi lo mantiene? Chi lo testa? Chi ci mette mano dopo 6 mesi quando il designer originale è scomparso nel nulla digitale?

E allora ci si chiede: è questa l’innovazione che ci serviva? Un altro tool che sforna layout reattivi in base a prompt vaghi? Forse sì, se il tuo obiettivo è fare pitch, impressionare investitori e lanciare MVP a raffica. Ma se ancora ti interessa costruire software che regge, che funziona, che ha una logica estetica e funzionale… Stitch è solo un altro giro di giostra nel luna park dell’AI generativa.

Comodo, utile in certi contesti, ma lontano dall’essere risolutivo. Come un junior developer brillante che ha bisogno di una guida costante. Solo che questo junior è un algoritmo, e non dorme mai. Ma nemmeno capisce quando sta facendo una cagata.