C’è qualcosa di magneticamente ironico nel vedere i pionieri della realtà virtuale – quelli che ci avevano promesso mondi paralleli dentro a visori da alieno – virare con decisione verso qualcosa di molto più tangibile: un assistente vocale che finalmente non fa venir voglia di lanciare lo smartphone dalla finestra. Brendan Iribe e Nate Mitchell, ex cervelli di Oculus, si ritrovano fianco a fianco in Sesame, una startup che punta tutto sugli occhiali AI e su un embedded OS next-gen, come se il futuro fosse improvvisamente tornato a passare dagli occhi, non dalla mente.

Certo, Mitchell esce da un fallimento. Mountaintop e il suo “Spectre Divide” non sono riusciti a lasciare il segno, ma in fondo il fallimento è solo un beta test glorificato nella Silicon Valley. Quello che conta è la convergenza delle traiettorie: AI, wearable e interfacce naturali. Il vero nodo non è se riusciranno, ma quanto tempo impiegheranno a cannibalizzare la generazione precedente di assistenti vocali. E mentre OpenAI prepara il nuovo DevDay per ottobre – data da cerchiare in rosso – Google si prepara al silenzioso funerale di Assistant, sostituito da Gemini, il suo alter ego generativo con un branding da mitologia industriale.

E come se non bastasse, l’AI musicale sta facendo il suo remix. Suno, reduce da una crescita esplosiva nel settore della generazione musicale, acquisisce WavTool, un editor audio via browser. Non è solo una mossa strategica: è il preludio a un’integrazione verticale che punta a rendere obsoleti i DAW come li conosciamo. Qui non si tratta più di comporre, ma di dirigere un’orchestra di modelli linguistici e reti neurali. Il risultato? Più potere creativo a chi sa scrivere prompt migliori, meno spazio per l’artigianato musicale tradizionale. E c’è chi ancora parla di “authenticità”.

In tutto questo, la traiettoria è chiara: l’intelligenza artificiale non sta solo riscrivendo gli strumenti, sta scegliendo nuovi autori. Che siano ex Oculus, ex falliti o ex chitarristi, poco importa. Il vero talento oggi è saper orchestrare modelli, non melodie. E l’assistente vocale che ti guarda negli occhi attraverso lenti a realtà aumentata potrebbe non essere solo un gadget. Potrebbe essere l’ultima interfaccia prima del silenzio definitivo tra uomo e macchina