La presentazione del Pixel 10 non è stata un semplice evento di lancio prodotti. Alphabet ha messo in scena il suo teatro annuale “Made by Google” a New York con la disinvoltura di chi non deve più convincere sviluppatori o nerd tecnologici, ma il grande pubblico. Addio agli eventi ingessati in cui l’attenzione cadeva sui dettagli tecnici. Benvenuti show all’americana, con Jimmy Fallon che scherza, i Jonas Brothers che sorridono e Steph Curry che dimostra come l’intelligenza artificiale di Google sappia rendere glamour anche il banale gesto di aprire un’app. La strategia è chiara: smettere di parlare a chi già conosce Android e iniziare a sedurre la massa che ancora vede il Pixel come un parente povero di Samsung e Apple.

Il Pixel 10 è la punta di diamante di questa narrativa, anche se la verità è che dal punto di vista hardware non c’è stato nessun terremoto. Le forme restano praticamente identiche, i display non si sono allargati miracolosamente e le batterie non promettono una settimana di autonomia. Le vere differenze sono invisibili, sepolte dentro il nuovo processore Tensor G5 e nelle decine di funzioni AI che Gemini Nano porta direttamente sul dispositivo. Rick Osterloh, vicepresidente di Google Devices & Services, lo ha detto senza troppi giri di parole: “C’è stato molto hype sull’AI nei telefoni, e sinceramente molte promesse non mantenute, ma Gemini è reale”. Non un dettaglio, ma una dichiarazione di supremazia.

Il Pixel 10 arriva in quattro versioni: base, Pro, Pro XL e Pro Fold. Prezzi invariati rispetto al passato, nonostante mesi di discussioni sui dazi americani che avrebbero potuto far salire i listini in modo doloroso. Si parte da 799 dollari e si arriva ai 1799 per il foldable, segno che Google non vuole giocarsi la carta dei rincari. Ha invece scelto l’arma più sottile: inserire AI in ogni possibile gesto, rendendo la differenza tra vecchio e nuovo modello una questione di esperienza piuttosto che di materiali. “Molte delle cose che hanno mostrato oggi potrebbero funzionare anche sul vecchio hardware” ha dichiarato Bob O’Donnell di Technalysis Research. E ha ragione. Ma il punto non è l’hardware. È che Google non vuole più vendere telefoni, vuole vendere l’illusione di avere accanto un assistente personale che conosce tutto di te.

Il Pixel 10 base aggiunge finalmente un teleobiettivo, un piccolo upgrade estetico per farlo sembrare all’altezza dei fratelli più costosi. In realtà il sensore principale è persino più piccolo di quello del Pixel 9. Poco importa: la fotografia computazionale guidata da Google AI è il vero selling point. Il coach della fotocamera che ti dice come scattare, il software che elimina errori, l’algoritmo che ricostruisce dettagli nello zoom. Ogni foto è un atto di delega, ogni immagine un compromesso tra realtà e fantasia algoritmica. Non stai catturando un momento, stai producendo contenuti con Tensor G5 come se fosse il tuo montatore personale.

Le versioni Pro e Pro XL non differiscono molto dalle precedenti. Ma nel mondo smartphone, la mancanza di cambiamenti radicali non è una debolezza, è una scelta. Google mantiene i 16 GB di RAM, aggiunge supporto Qi2 per la ricarica magnetica Pixelsnap e spinge il modello XL fino a 25W. Dettagli marginali? Forse. Ma sono quelli che alimentano il marketing. L’utente medio non noterà la differenza, ma sarà convinto che ci sia. È la vecchia arte di Apple ora replicata da Google, con un’aggiunta in più: la consapevolezza che a fare la differenza non è lo chassis, ma il software.

Il Pro Fold è il vero oggetto da vetrina. Primo foldable a prova di polvere con certificazione IP68, un esterno più ampio e un interno che resta a 8 pollici. È un manifesto, più che un prodotto. Google lo presenta come il futuro della produttività e dell’intrattenimento, un device che mette alla prova la resilienza dell’AI in scenari complessi. Costa 1799 dollari, ma il prezzo è secondario. È la dimostrazione che Google non vuole più seguire, vuole guidare.

Attorno al Pixel 10 ruota una costellazione di accessori e dispositivi che amplificano la visione. Il sistema Pixelsnap porta la ricarica magnetica a livello di feticcio, con cover colorate, stand e anelli da agganciare al telefono. È la mossa più spudoratamente “Apple style” di tutta l’operazione, con un copycat dichiarato del MagSafe. Ma Google lo accompagna con una narrativa differente: non solo accessori, ma parte integrante di un ecosistema AI che vive su orologi, cuffie e persino in casa.

Il Pixel Watch 4, con il suo display più luminoso del 50 per cento e un’autonomia migliorata, non vuole più sembrare un tentativo goffo di recuperare il terreno perso con Apple Watch. Ora si presenta come estensione naturale di Gemini, con coach AI per la salute e Fitbit come infrastruttura invisibile. I Pixel Buds 2A salgono di prezzo, ma guadagnano cancellazione attiva del rumore e un chip Tensor A1 che li trasforma da auricolari economici a strumenti di AI portatile. Perfino i Pixel Buds Pro 2 ricevono aggiornamenti software che li rendono più intelligenti nel modulare i suoni ambientali. Tutto converge nello stesso punto: Gemini ovunque.

La narrativa, però, non è priva di ombre. Google controlla Android, il sistema operativo che gira sull’80 per cento degli smartphone globali, ma i Pixel rappresentano una quota di mercato ridicola. Appena l’1,1 per cento mondiale secondo IDC, con un calo negli Stati Uniti dal 4,5 al 4,3 per cento. Numeri risibili rispetto a Samsung o Xiaomi. È un dettaglio che smonta qualsiasi pretesa di leadership hardware, ma rafforza il senso dell’operazione: Pixel non serve a dominare le vendite, serve a mostrare al mondo cosa Android e Google AI possono fare quando sono integrati alla perfezione. È una vetrina di possibilità, un esempio da seguire per gli altri produttori.

Eppure, qualcosa sta cambiando. Google ha annunciato che i Pixel verranno finalmente venduti in Messico, allargando il perimetro geografico che finora si è limitato a Stati Uniti, Giappone e Regno Unito. È un passo piccolo ma significativo. La limitata presenza globale è uno dei fattori che frenano la crescita. Se Pixel vuole davvero diventare un player rilevante, deve uscire dal recinto dell’high-end per pochi mercati privilegiati.

La parte più affascinante resta l’ambizione dichiarata di Google: costruire un assistente universale, un agente digitale che capisca contesto, intenzioni e agisca di conseguenza. Magic Cue che anticipa i tuoi bisogni, traduzioni vocali simultanee durante le chiamate, notifiche che compaiono senza richiesta esplicita. Non si tratta più di tecnologia, ma di psicologia. Google non ti vende un telefono, ti vende l’idea che qualcuno stia lavorando costantemente per semplificarti la vita. Un qualcuno che non dorme mai, non sbaglia mai e non dimentica mai.

La provocazione più grande è che la maggior parte di queste funzioni non richiede Pixel 10 per esistere. Potrebbero girare tranquillamente anche sul Pixel 9, forse persino sull’8. Ma Google ha capito che il consumatore non compra l’hardware, compra la narrativa del “nuovo”. Compra la promessa che stavolta l’AI è davvero matura, che Gemini non è un prototipo ma un prodotto. È un gioco di percezioni, e Google lo sta conducendo con maestria.

In un mondo in cui Apple ha rimandato al 2026 le sue ambizioni AI, Google ha scelto il momento perfetto per occupare lo spazio vuoto. Non si tratta solo di smartphone, ma di colonizzare l’immaginario collettivo. Quando il consumatore medio penserà a intelligenza artificiale sul telefono, deve pensare a Pixel 10. Poco importa che il mercato reale resti dominato da Samsung. La battaglia vera è culturale, non numerica.

Il Pixel 10 non è nato per conquistare quote di mercato. È nato per ridisegnare le regole del gioco. Per spostare la conversazione da “quanto è potente la fotocamera” a “quanto è intelligente il mio telefono”. È un cavallo di Troia, un oggetto che sembra un altro smartphone ma che in realtà è l’inizio di una transizione: dall’era dei device all’era degli agenti digitali. Google vuole essere il regista di questa nuova epoca. E il Pixel 10 è la sua sceneggiatura.