Alex gioca a morra cinese con il pensiero. Non è un’iperbole, non è una campagna marketing da serie Netflix. È la seconda persona al mondo con un chip Neuralink nel cervello e, stando a quanto mostrato pubblicamente, riesce a muovere una mano robotica virtuale scegliendo mentalmente tra “sasso, carta, forbice” in tempo reale. Niente controller, niente voce, niente interfaccia visiva. Solo intenzione.
Lentamente, in modo grottesco e inevitabile, stiamo disimparando a usare le mani. Prima la tastiera, poi lo schermo touch, poi la voce, ora il pensiero. In questa progressione degenerativa dell’interazione uomo-macchina, qualcosa di profondo si agita: l’idea che l’interfaccia stessa sia un ostacolo da rimuovere. Non più strumento, ma barriera.
E allora, eccoci qua, a celebrare con entusiasmo clinico una partita mentale di morra, come se fosse la Luna del 1969. Ma se Alex può lanciare “forbice” senza muovere un muscolo, cosa impedisce a un agente AI di rispondere “sasso” e schiacciargli la volontà prima ancora che diventi azione? La partita si complica.
Perché ciò che Neuralink dimostra, al di là del circo mediatico, è che le brain-computer interfaces (BCI) non sono solo strumenti di riabilitazione. Sono un cambio di paradigma. Non servono più a far camminare i paralizzati, ma a riscrivere la semantica stessa del gesto. Pensare diventa fare. Volere diventa azione. L’epoca della “UX” come l’abbiamo conosciuta è finita. Quando il pensiero è l’interfaccia, chi progetta l’esperienza? Quando non c’è più click né scroll, ma flusso neurale, chi decide cosa è intuitivo?
Nel gergo tecnico, si parla di intention decoding. Un processo che suona molto più asettico di quello che è in realtà: la traduzione di segnali cerebrali in comandi computazionali. Quello che fa Neuralink è creare un ponte diretto tra il nostro desiderio e il codice. E se ti sembra poco, immagina cosa può significare questo per i flussi di lavoro in ambienti dove ogni millisecondo conta: sale operatorie, mercati finanziari, cockpit militari.
Il vero punto non è che Alex giochi a morra. È che non ha bisogno di imparare nulla di nuovo per farlo. La curva di apprendimento è la stessa che usi per immaginare di muovere il dito. E questo cambia tutto.
Cambia il design. Cambia la sicurezza. Cambia la governance. Cambia il modo in cui pensiamo ai comandi, ai workflow, al controllo. Perché se il pensiero è un dato, allora è esposto, intercettabile, vulnerabile. Se il pensiero è un’API, chi può chiamarla? Chi ha accesso alla tua intenzione prima che diventi decisione? Si spalanca un abisso.
Certo, oggi siamo ancora nel campo delle demo. Le BCI sono instabili, invasive, limitate. Ma il principio è ormai avviato, come un razzo partito in orbita che non puoi più richiamare. Quando riusciremo a decodificare l’intenzione con precisione millimetrica, i comandi vocali sembreranno grotteschi. I mouse diventeranno oggetti archeologici. Le tastiere, strumenti da collezione steampunk. E gli sviluppatori? Si troveranno di fronte al problema più spinoso dell’era post-UI: come si progetta per qualcosa che non si vede, non si tocca, non si clicca?
Pensare diventa interagire. Ma l’interazione mentale ha una semantica diversa, una sintassi più ambigua. Se sbagli un gesto, il sistema può chiederti di ripeterlo. Ma se sbagli un pensiero? Se il tuo cervello formula un’intenzione involontaria? Se il tuo subconscio “preme invio”? Come si gestiscono i false positives nel sistema limbico?
È qui che il dibattito etico, oggi relegato a convegni di bioetica e tavoli istituzionali ingessati, esplode nella sua urgenza. Non stiamo solo parlando di interfacce neurali. Stiamo parlando di accesso all’identità pre-verbale, alla volontà non ancora espressa. L’ultimo spazio privato che ci era rimasto: il pensiero interiore. Ora lo vogliono strumentalizzare.
Qualcuno dirà che è troppo presto per preoccuparsi. Che è solo un prototipo. Che Alex è sotto osservazione, monitorato, coccolato da ingegneri e medici. Vero. Ma ogni tecnologia rivoluzionaria comincia come un’innocente dimostrazione. Il primo SMS non era una minaccia. Il primo drone era un giocattolo. Il primo algoritmo di raccomandazione era una comodità. Oggi abbiamo influencer sintetici, guerre automatizzate e bolle cognitive su scala industriale.
Nel momento in cui il pensiero diventa bit, tutto cambia. I bit sono copiabili. Sono trasferibili. Sono leggibili. Quindi, il pensiero diventa leggibile. E se è leggibile, può essere interpretato. Se può essere interpretato, può essere classificato, sorvegliato, venduto.
Neuralink ha appena aperto un vaso di Pandora silenzioso. Il gioco di morra è il gesto inaugurale di una nuova architettura cognitiva. Una che non prevede più mani, occhi, voce. Ma solo cortecce neurali, segnali elettrici, pattern sinaptici. Da qui a una nuova era di zero interface computing, il passo è breve.
E l’AI? L’intelligenza artificiale, quella vera, quella non generativa ma agentica, non aspetta altro. Perché un’intelligenza che non ha bisogno di un linguaggio naturale per capire l’umano, ma che può leggere direttamente l’intenzione cerebrale, sarà infinitamente più efficiente. Più precisa. Più pericolosa.
Immagina un assistente AI che anticipa ogni tuo bisogno prima che tu lo esprima. Che ti propone una soluzione prima ancora che tu formuli il problema. Fantastico, vero? Finché non sbaglia. Finché non interpreta male un’emozione, un pensiero di passaggio, una pulsione repressa. E prende decisioni per te, nel nome della tua “intenzione”. Intenzione che non hai mai detto ad alta voce.
Benvenuti nel regno dell’interfaccia invisibile. Dove non si clicca, non si tocca, non si dice nulla. Si pensa. E il pensiero diventa comando. Ma attenzione: ogni comando può essere anche un errore. E ogni errore, se avviene a livello di volontà, è irreversibile.
Nel frattempo, Alex sorride. Forse. Nessuno gliel’ha chiesto. Ma sta vincendo a morra. Con la mente. E questa, in fondo, è la vera notizia.