La domanda che aleggia sopra il CES di Las Vegas come un drone invisibile non riguarda né i chip né gli schermi pieghevoli. Qualcuno riuscirà davvero a raggiungere Google nella corsa all’intelligenza artificiale. Non superarla, attenzione. Raggiungerla. Il dettaglio semantico conta, perché nel 2026 l’AI non è più una feature, è un’infrastruttura cognitiva diffusa, un sistema operativo mentale che vive dentro gli oggetti. E Google, silenziosamente, sta facendo ciò che le riesce meglio da vent’anni: diventare ovunque senza farsi notare troppo.

Il punto di partenza è una frase apparentemente neutra riportata da Reuters. Il co CEO di Samsung parla di raddoppiare i dispositivi mobili con Galaxy AI fino a quota 800 milioni entro l’anno. Un numero che suona come una statistica da slide per investitori, ma che in realtà nasconde una verità piuttosto brutale. Galaxy AI non è Samsung AI. È Gemini. È Google. Non nel senso del chatbot consumer preinstallato, che pure è parte della storia, ma nel senso molto più profondo di modelli, inferenza, contesto, visione e linguaggio che scorrono sotto l’interfaccia come elettricità sotto l’asfalto.

Qui entra in gioco la prima keyword che conta davvero: intelligenza artificiale mobile. Perché è sul telefono che si decide la partita, non nei laboratori di ricerca o nei demo futuristici. Il telefono è l’oggetto più personale mai inventato, più del portafoglio e più delle chiavi di casa. È sempre acceso, sempre connesso, sempre addosso. Chi controlla l’AI sul telefono non controlla solo un assistente vocale. Controlla l’interazione primaria tra essere umano e mondo digitale.Samsung, nel frattempo, fa quello che ha sempre fatto quando la tecnologia diventa piattaforma. Si allea con chi può darle scala immediata. Non è una questione di genialità o di mancanza di visione. È realpolitik industriale. Costruire modelli linguistici multimodali competitivi richiede capitali, dati, infrastruttura e soprattutto tempo. Google ha tutte e quattro le cose. Samsung ha il mercato. L’accordo è quasi inevitabile.

Il dettaglio interessante, che molti commentatori ignorano, è che Gemini non si ferma ai telefoni. Google TV, elettrodomestici da cucina, wearable, occhiali intelligenti. Il CES diventa così una vetrina non di gadget, ma di superfici computazionali. Ogni schermo è un potenziale punto di ingresso per Gemini. Ogni microfono è un sensore semantico. Ogni fotocamera è un occhio che vede per conto dell’utente. O per conto di Google, dipende dal punto di vista e dal contratto di licenza.

Qui la seconda keyword semantica prende forma: ecosistema AI. Non un prodotto, non un’app, ma una rete di interazioni distribuite che alimentano continuamente il miglioramento dei modelli. Google non ha bisogno di convincerti a usare Gemini come chatbot. Le basta che tu usi il telefono, guardi la TV, cucini, chieda indicazioni, traduca un testo, sistemi una foto. Ogni micro interazione è addestramento implicito, anche quando formalmente non lo è.

In questo scenario, la guerra tra Samsung e Apple per la quota di mercato globale degli smartphone diventa quasi folkloristica. Una nota a margine per analisti di mercato che amano i grafici a torta. Google non ha bisogno di vincere l’hardware. Le basta essere il cervello. Ed è per questo che l’eventuale accordo con Apple per portare Gemini dentro Siri è strategicamente devastante per chiunque altro. Apple controlla l’interfaccia, Google controlla l’intelligenza. Un matrimonio di convenienza che farebbe impallidire qualsiasi trattato geopolitico.

Naturalmente nulla è permanente. Gli accordi hanno una scadenza, le autorità antitrust osservano, i regolatori europei prendono appunti. Ma nel breve e medio periodo Google sta facendo ciò che sa fare meglio: comprarsi il tempo. Tempo per migliorare i modelli. Tempo per accumulare dati. Tempo per rendere Gemini così integrato nella vita quotidiana da diventare noioso. E quando una tecnologia diventa noiosa, ha vinto.

Questo spiega anche l’ansia quasi esistenziale di OpenAI nel lanciare un dispositivo proprietario e l’ostinazione di Meta sugli occhiali intelligenti. Entrambe inseguono la stessa chimera: sostituire lo smartphone come interfaccia primaria. Un obiettivo nobile, visionario, e probabilmente prematuro. I telefoni sono brutti, invadenti e pieni di notifiche, ma funzionano. E soprattutto sono già lì. Provare a disintermediarli senza controllare il sistema operativo o la distribuzione hardware è come tentare una rivoluzione partendo da un TED Talk.

La terza keyword semantica emerge qui con una certa ironia: modelli Gemini. Non perché siano intrinsecamente migliori di GPT o di altri modelli di frontiera, ma perché sono embedded. Sono dentro. Invisibili. Funzionali. Google non vende sogni, vende flussi di lavoro. Non promette coscienza artificiale, promette che la foto venga sistemata meglio e che il messaggio venga scritto più in fretta. È una strategia tremendamente poco sexy e proprio per questo estremamente efficace.

C’è poi la questione dei soldi, che in queste narrazioni futuristiche viene sempre trattata come un dettaglio imbarazzante. Google fa pagare Samsung per l’uso dei modelli. O forse paga Google per essere lì, come emerso nelle udienze antitrust. La verità è probabilmente una combinazione delle due cose, con sconti, incentivi, revenue sharing e clausole che farebbero la gioia di qualsiasi avvocato corporate. Ma il punto non è il margine di oggi. È il lock in di domani.

Quando Gemini Live permette di parlare con l’AI su ciò che vedi sullo schermo, non stiamo parlando di una feature. Stiamo parlando di una nuova grammatica cognitiva. L’utente non cerca più, mostra. Non descrive, indica. È un cambio di paradigma che rende l’AI meno chatbot e più compagna di contesto. Ed è esattamente il tipo di interazione che genera dipendenza funzionale senza mai dichiararsi tale.

Certo, oggi se chiedi a una persona qual è l’AI che conosce, ti risponderà ChatGPT. È normale. OpenAI ha vinto la battaglia culturale iniziale. Ma Google sta giocando un’altra partita. Sta cercando di diventare l’AI che non nomini, perché non ne hai bisogno. È già lì. Come il motore di ricerca, come Maps, come Gmail. Invisibile, inevitabile, leggermente inquietante.

C’è una vecchia battuta nella Silicon Valley che dice che Google non lancia prodotti, lancia standard de facto. Gemini non fa eccezione. Non importa se l’utente lo ama o lo odia. Importa che funzioni abbastanza bene da non essere disinstallato. In un mondo in cui l’intelligenza artificiale diventa infrastruttura, la vera vittoria non è essere i più intelligenti. È essere i più diffusi.

E mentre tutti discutono di etica, di allineamento e di rischi esistenziali, Google fa ciò che ha sempre fatto nei momenti decisivi. Si infila tra l’hardware e l’utente. Tra la domanda e la risposta. Tra il gesto e il significato. Non con un colpo di teatro, ma con contratti, SDK, integrazioni e partnership. Una strategia noiosa, grigia, quasi burocratica. Proprio per questo, tremendamente pericolosa per chi arriva secondo.