Negli ultimi anni l’intelligenza artificiale ha prima vissuto educatamente dentro lo schermo del nostro computer, poi ha traslocato nello smartphone, quindi ha preso possesso delle chat, delle email, delle foto e dei documenti. Adesso, a giudicare dalle ultime mosse di Apple, OpenAI e Meta, ha deciso che è arrivato il momento del grande salto: entrare direttamente nel nostro spazio personale. Non in senso metaforico. Proprio fisicamente, addosso a noi. La nuova frontiera dell’AI non è un’app, non è un sito web e nemmeno un servizio cloud. È un oggetto. Un wearable. Qualcosa che si indossa, che ti guarda, che ti ascolta e che, con molta probabilità, ti giudica in silenzio mentre scegli cosa mangiare a pranzo.
Apple, secondo indiscrezioni sempre più insistenti, starebbe lavorando a un minuscolo dispositivo con telecamere, microfoni e altoparlante, una specie di assistente personale portatile che promette di sapere tutto di te prima ancora che tu lo sappia di te stesso. OpenAI, dal canto suo, si è alleata con Jony Ive (l’uomo che ha disegnato mezzo ecosistema Apple) per costruire un oggetto misterioso, elegante, minimalista e molto probabilmente costosissimo. Meta invece è già in pista: ha venduto oltre due milioni di occhiali smart e sta dimostrando che, a piccole dosi, le persone sono disposte a farsi osservare da una macchina… purché sia firmata e stia bene con il proprio outfit.
L’idea, sulla carta, è estremamente affascinante: portare l’AI fuori dallo schermo e dentro la vita reale. Non più solo domande digitate, ma suggerimenti sussurrati. Non più ricerche, ma anticipazioni. Non più “apri l’app”, ma “ci penso io, ho già visto tutto, ho ascoltato a sufficienza”. In pratica, un’AI che non aspetta di essere chiamata, ma ti accompagna, ti osserva e interviene. Una specie di copilota esistenziale con più RAM che empatia.
Il problema è che questa storia l’abbiamo già vista. Google Glass dovevano cambiare il mondo e invece hanno soprattutto insegnato al mondo come riconoscere e odiare chi ti riprende senza chiedere permesso. Più recentemente Humane ha provato a reinventare il concetto di assistente indossabile e ha scoperto che tra “visionario” e “imbarazzante” la distanza è spesso una recensione negativa.
Il vero nodo non è tecnologico. È sociale. E, soprattutto, è un problema di fiducia. Perché mentre è tutto sommato accettabile che il telefono sappia tutto di noi, è un po’ più inquietante sapere che anche gli occhiali della persona davanti potrebbero star registrando, analizzando, archiviando e magari riassumendo la conversazione in tempo reale. Nessuno ama l’idea di diventare una fonte dati ambulante senza aver firmato il consenso informato.
Eppure qualcosa sta cambiando. Il fatto che Meta abbia già piazzato milioni di occhiali intelligenti indica che una parte del pubblico è pronta a fare questo patto faustiano: un po’ di privacy in meno in cambio di un po’ di magia tecnologica in più. Ma la vera competizione, in questa nuova corsa ai wearable AI, non sarà su chi ha la batteria migliore o il design più sottile. Sarà su chi riuscirà a costruire un rapporto credibile con le persone. Chi saprà spiegare quando registra, perché lo fa, dove finiscono quei dati e, soprattutto, come si spegne davvero.
Perché il futuro degli wearable AI non si deciderà nei laboratori di Cupertino o negli uffici di San Francisco, ma negli sguardi imbarazzati sui mezzi pubblici, nei cartelli “vietato registrare”, nelle cene tra amici in cui qualcuno chiederà: “Scusa, ma quel tuo dispositivo sta registrando tutto?”
L’AI indossabile sembra finalmente pronta. Resta da capire se siamo pronti noi a vivere in un mondo in cui la tecnologia non è solo nelle nostre tasche, ma anche sul nostro volto. E dove la vera innovazione non sarà far vedere meglio le macchine, ma farle diventare abbastanza educate da chiudere gli occhi quando serve.