Meta ha deciso che il futuro non è più un telefono da stringere nervosamente in mano, ma un paio di occhiali da guardare con aria complice mentre gli amici ti parlano e tu, in realtà, stai rispondendo all’ennesimo messaggio WhatsApp. Durante il Meta Connect 2025 Mark Zuckerberg ha venduto il sogno come un ritorno alla “presenza autentica”, sostenendo che gli smartphone ci hanno alienato e che gli occhiali potrebbero restituirci quel contatto umano perduto. Tradotto dal linguaggio corporate, significa che Meta non vuole più pagare la tassa ad Apple e Google sugli app store, preferendo costruirsi la sua fetta di hardware e, se tutto va bene, cannibalizzare il mercato degli smartphone.

Il nuovo feticcio tecnologico si chiama Meta Ray-Ban Display, l’ennesima reincarnazione degli occhiali intelligenti che stavolta promettono davvero di cambiare le regole del gioco. Dopo anni di Reality Labs che brucia miliardi come se fossero marshmallow su un falò — oltre 70 miliardi di dollari di perdite dal 2020 — Zuckerberg ha finalmente qualcosa di tangibile da mostrare. O almeno così sembra. Perché sì, il metaverso con gli avatar senza gambe è rimasto la barzelletta della Silicon Valley, ma qui la sensazione è diversa: il prodotto è raffinato, quasi seducente, e soprattutto ambizioso come pochi.

Gli occhiali in sé non sono una novità. Hanno già telecamere, microfoni, altoparlanti e un assistente AI integrato, con tanto di app Meta pronte all’uso: da Instagram a WhatsApp, passando per Facebook. La differenza è che ora il display integrato non rovina la visuale e ti proietta davanti agli occhi mappe, traduzioni in tempo reale e notifiche come se stessi leggendo un fumetto personale che nessuno può vedere. Un trucco elegante che sembra più fantascienza che consumer tech.

Ma la vera arma segreta è il Meta Neural Band, un bracciale che intercetta i segnali tra cervello e mano grazie alla superficie elettromiografica. In pratica, puoi “scrivere” nell’aria tenendo le dita come se impugnassi una penna invisibile, e il sistema trasforma i micro-impulsi nervosi in testo. Durante la presentazione Zuckerberg si è vantato di riuscire a digitare circa 30 parole al minuto. Per capirci, un iPhone arriva in media a 36, mentre i tester del laboratorio Meta si aggirano sui 21. Se i numeri reggono, non è poco.

Il dettaglio interessante è che questo sistema elimina il bisogno di parlare da soli in pubblico, il che è sempre stato il tallone d’Achille dei comandi vocali. Gli utenti di Apple Watch lo sanno bene: sì, puoi scrivere messaggi col polso, ma è talmente lento da essere un’esperienza frustrante. Qui invece l’interfaccia silenziosa diventa naturale, quasi invisibile, e apre a un ventaglio di possibilità che vanno ben oltre la semplice messaggistica.

Certo, il keynote non è stato privo di inciampi. Alcune demo AI sono fallite miseramente, colpevole il Wi-Fi secondo Zuckerberg. Ma ciò che ha funzionato, il Neural Band in azione, ha reso chiaro che non si tratta di una trovata da marketing. Altri gesti ricordano tecnologie già viste, dai controller Nintendo Joy-Con ai sensori dell’Apple Watch, ma la precisione promessa qui sembra un salto di qualità.

La domanda vera è se Meta riuscirà a trasformare questi occhiali in un’alternativa credibile allo smartphone. Gli ingredienti ci sono: un form factor accettabile, una UI che non obbliga a urlare comandi imbarazzanti e un’integrazione verticale con le sue piattaforme social. Il rischio è che il pubblico non sia ancora pronto a sostituire il rettangolo nero in tasca con un paio di lenti hi-tech, soprattutto dopo l’ubriacatura del metaverso che ha già lasciato parecchi investitori con il mal di testa.

In fondo, Zuckerberg non vuole restituire la presenza umana. Vuole possedere l’infrastruttura che media quella presenza. Con gli occhiali Meta Ray-Ban Display non guarderemo più il telefono, ma continueremo a guardare uno schermo, solo che stavolta sarà incollato al nostro volto. È un cambiamento radicale o solo un’evoluzione cosmetica? Dipenderà meno dalla tecnologia e più dalla nostra capacità di accettare che il futuro dell’interazione digitale non è nelle mani, ma negli occhi.