Ci sono momenti nella storia della tecnologia in cui il futuro sembra inciampare su sé stesso. È il caso di OpenAI e Jony Ive, una coppia tanto magnetica quanto improbabile, impegnata nella creazione di un dispositivo AI senza schermo che promette di ridefinire il concetto stesso di computer personale.

O almeno, questa è la narrazione ufficiale. Nella realtà, ciò che emerge è un mix di ambizione estrema, ostacoli tecnici e una sottile ansia da prestazione che attraversa l’intera Silicon Valley. Sam Altman sogna un mondo in cui l’intelligenza artificiale non vive dentro uno schermo, ma respira accanto a noi. Ive, il designer che ha dato forma a iMac, iPod e iPhone, immagina un oggetto talmente essenziale da scomparire. Il problema è che rendere invisibile la tecnologia non significa renderla semplice.

Il progetto, nato dall’acquisizione di io per 6,5 miliardi di dollari, dovrebbe dare vita a un piccolo assistente sempre attivo, capace di interpretare segnali visivi e sonori e di rispondere con naturalezza alle richieste dell’utente. Una specie di compagno digitale che ascolta, osserva, interpreta e agisce, senza bisogno di display. È l’incarnazione più pura di un’intelligenza ambientale. Ma quando l’intelligenza diventa presenza, emergono dilemmi profondi: quanto deve essere autonoma, quanto deve parlare, e soprattutto, quando deve tacere.

Secondo le indiscrezioni, il dispositivo AI senza schermo di OpenAI nasce con un’ambizione più radicale dei classici smart speaker. Non vuole solo rispondere a comandi, vuole capire contesto, emozione, intenzione. L’idea di una macchina che ascolta tutto il giorno, raccoglie dati per costruire una “memoria”, e decide autonomamente quando intervenire, apre un fronte etico e tecnologico che neppure Apple o Google sono riuscite a gestire del tutto. La privacy diventa un concetto scivoloso, la fiducia un bene fragile. Ive lo sa, e forse è per questo che il design minimalista, privo di schermi, sembra un modo per chiedere discrezione a una tecnologia che di discreto ha ben poco.

La sfida tecnica però è brutale. Altman e Ive si scontrano con il problema del “compute”, quella risorsa invisibile ma cruciale che alimenta l’intelligenza artificiale moderna. Amazon può contare sui propri data center per Alexa, Google ha un’infrastruttura colossale per Assistant, ma OpenAI fatica ancora a garantire la potenza di calcolo necessaria perfino a ChatGPT. Pensare di portare la stessa esperienza dentro un dispositivo hardware di massa richiede un equilibrio quasi impossibile tra efficienza, costo e prestazioni. Come può un oggetto grande quanto un palmo di mano gestire modelli linguistici che oggi vivono in cluster da centinaia di GPU?

C’è poi la questione della “personalità”. Il progetto punta a creare un assistente che non sia né troppo servile né troppo invadente. Trovare il giusto tono emotivo di una voce artificiale è un esercizio di ingegneria sociale più che di software. Un assistente che parla troppo diventa fastidioso, uno che tace troppo perde utilità. È un problema antico travestito da novità: la stessa tensione che ha segnato l’evoluzione dei chatbot, ora proiettata in un corpo fisico, senza lo schermo che funge da barriera o filtro. Ive, con la sua ossessione per l’armonia sensoriale, deve ora progettare qualcosa che non si possa vedere ma che deve “sentirsi giusto”. È un paradosso quasi filosofico: creare bellezza da ciò che non ha forma.

Il rischio è quello di costruire un oracolo muto o, peggio, un compagno troppo loquace. Alcuni addetti ai lavori parlano di un dispositivo “sempre acceso”, una scelta che suona più come una minaccia che come una promessa. Chi vuole un microfono che ascolta tutto, sempre? Eppure è qui che si gioca la scommessa più audace: trasformare la tecnologia da strumento in presenza, da interfaccia in relazione. L’intelligenza artificiale conversazionale non sarà più qualcosa che si consulta, ma qualcuno con cui si convive. È la visione di Altman: un mondo in cui il computer diventa amico, non interfaccia. Il problema è che l’amicizia, anche tra esseri umani, è un processo imperfetto, fatto di ambiguità e limiti. Immaginate ora di tradurre tutto questo in codice.

L’ombra del fallimento di altri esperimenti simili, come l’AI Pin di Humane, è ancora fresca. Quel dispositivo, pensato come estensione indossabile dell’intelligenza artificiale, è stato criticato come “invasivo” e “creepy”. Un segnale chiaro che il pubblico non è pronto a fidarsi di un compagno digitale che vive troppo vicino al corpo. Ive e Altman lo sanno, eppure insistono. Forse perché credono che il problema non sia la tecnologia, ma la sua estetica. Un oggetto progettato con grazia, con il tocco quasi monastico del designer di Cupertino, potrebbe rendere accettabile anche ciò che oggi appare disturbante. È la magia del design come linguaggio di fiducia.

Nel frattempo, OpenAI continua la sua corsa verso l’integrazione verticale: dopo aver dominato il software con ChatGPT, ora vuole conquistare anche l’hardware. È un salto strategico che rievoca la traiettoria di Apple stessa, ma in un contesto più instabile. A differenza di Cupertino, OpenAI non controlla ancora le catene produttive, non ha un ecosistema consolidato di dispositivi, né una base utenti fidelizzata al livello di un iPhone. La collaborazione con Luxshare e altri produttori asiatici indica la volontà di industrializzare il sogno, ma resta la domanda più semplice e più pericolosa: a chi servirà davvero questo oggetto?

La risposta più onesta è che nessuno lo sa. Potrebbe essere un capolavoro di interazione naturale o un esercizio di stile senza mercato. Ive non progetta per le masse, progetta per l’ideale. Altman non pensa in termini di prodotto, ma di destino tecnologico. L’incontro tra queste due menti è una collisione di filosofia e potenza, una danza tra l’arte del silenzio e il rumore dell’intelligenza artificiale. Se riusciranno a costruire un dispositivo AI senza schermo che non spaventi, non invada e non annoi, allora avremo davvero il primo computer post-schermo. Se falliranno, resterà comunque un monumento all’ambizione di chi ha provato a reinventare il modo in cui parliamo con le macchine.

Forse il vero punto non è se il dispositivo arriverà nel 2026 o nel 2028, ma se il mondo sarà pronto ad accettare una presenza digitale che non si vede ma si sente. Perché un giorno, quando diremo “computer”, potremmo non pensare più a un rettangolo di vetro e silicio, ma a una voce che ci accompagna ovunque, con la discrezione di chi sa ascoltare. Ive probabilmente sorriderebbe. Altman forse no, troppo impegnato a calcolare quanta potenza di calcolo serve per dare un’anima al silenzio.

secondo Financial Times OpenAI e Jony Ive si trovano ad affrontare notevoli sfide  vivamente consigliato da Rivista.AI