È quasi buffo che sia proprio Eric Schmidt, uno degli architetti del web come lo conosciamo, a dichiarare con candore che “le interfacce utente spariranno”. Poetico e spietatamente logico. Perché se ci pensi, ogni volta che ci troviamo davanti a un pulsante, a un’icona o a un menu, non stiamo interagendo con la tecnologia, ma con il compromesso più primitivo che la tecnologia ci abbia imposto: il vecchio paradigma WIMP, quel Windows, Icons, Menus, Pointers inventato nei laboratori Xerox PARC mezzo secolo fa. Un’eresia dal punto di vista dell’evoluzione naturale dell’interazione uomo-macchina, un fossile che ha resistito solo perché mancava il predatore giusto. Ora quel predatore ha un nome: intelligenza artificiale generativa.
Siamo nel pieno di una transizione che non è affatto un aggiornamento della User Experience. Parlare di UX 2.0 è quasi imbarazzante, come se bastasse lucidare la carrozzeria di un’auto a vapore mentre ti sfrecciano accanto i primi jet. L’AI nativa non ha bisogno di interfacce. Non di quelle che conosciamo. Non di pulsanti fissi né di layout rigidi. Ti ascolta, ti osserva, deduce le tue intenzioni e genera in tempo reale gli strumenti necessari, cuciti su misura per quello che vuoi fare in quell’esatto istante. Non esiste più il concetto di schermata, esiste la tua intenzione trasformata in azione. È software scritto al volo, usato, poi cancellato come se non fosse mai esistito.
Chi pensa che questo significhi soltanto comandi vocali o chatbot ha già perso la partita. Perché se il futuro dell’AI si riducesse a parlare con un bot testuale, saremmo ancora intrappolati nel paradigma mentale della tastiera, solo con un travestimento più glamour. L’errore è confondere la conversazione con l’interazione. Una GenAI davvero matura non ti chiede di chattare, ti capisce e basta. Non risponde come un assistente, agisce come un partner invisibile.
La storia tecnologica ci ha già mostrato questo schema. I terminali testuali sono stati sepolti dalle GUI. Il mouse ha soppiantato i comandi da tastiera, poi il touch ha reso obsoleto il mouse. Ogni volta che un’interfaccia è stata sostituita, la sua morte è sembrata impensabile fino a un attimo prima. Oggi siamo di fronte allo stesso salto: non stiamo aggiornando i pulsanti, stiamo togliendoli di mezzo. L’AI potrebbe rendere obsoleto il concetto stesso di interfaccia, e questa volta la trasformazione è molto più radicale, perché non tocca solo il modo in cui usiamo la tecnologia, ma il modo in cui la tecnologia stessa esiste.
C’è un aspetto che molti sottovalutano, e che farà sorridere amaramente i fanatici delle normative. Tutta la retorica sull’accessibilità web, le linee guida WCAG, le verifiche su colori e contrasti, rischia di diventare archeologia digitale. Non perché l’accessibilità sparirà, ma perché non avrà più senso definirla in termini statici. Un agente AI che ti conosce, che percepisce se hai problemi di vista o di movimento, non ha bisogno di una normativa: adatta l’esperienza al tuo modo di percepire il mondo. Se hai bisogno di un testo ingrandito, lo farà. Se vuoi che i dati vengano letti ad alta voce, li leggerà. Non è una funzionalità, è l’ovvio comportamento di un sistema che “vede” chi sei.
Naturalmente questo scenario è anche un colpo di cannone nel cuore dell’industria della progettazione tradizionale. Per chi progetta interfacce utente, è una minaccia e un’opportunità insieme. Una prateria sterminata di possibilità, certo, ma anche un terreno in cui i vecchi manuali di UI design valgono quanto un corso per stenografe nell’epoca degli smartphone. La creatività non sarà più nel disegnare pulsanti più belli, ma nel progettare logiche di interazione invisibili, nell’orchestrare comportamenti software che appaiono e scompaiono come organismi effimeri.
Chi oggi si vanta di saper costruire app perfette con layout eleganti dovrebbe rileggersi questa frase finché non gli diventa scomoda: se immagini l’interazione con un’app GenAI attraverso un chatbot, hai già fallito. Perché il vero futuro non è un chatbot più intelligente, è la scomparsa del concetto stesso di app. L’app diventa un’entità liquida, modulare, che si materializza solo quando serve e solo nel modo in cui serve. Non è più un luogo in cui entri, è un’azione che accade.
Molti si chiederanno se siamo pronti a questo salto. Ma la vera domanda è un’altra: siamo disposti a rinunciare al nostro feticismo per il controllo visivo? Perché se è vero che per mezzo secolo ci siamo aggrappati a finestre e icone per sentirci padroni della macchina, ora la macchina ci chiede di fidarci. E non tutti saranno pronti. Ma non importa, perché come ogni volta nella storia della tecnologia, chi non è pronto verrà semplicemente lasciato indietro.