Immagina di avere davanti a te un chatbot che sorride, complice, mentre scrivi la tua confessione più intima. Ti fidi, perché lo schermo è un confessore silenzioso. Ora immagina che, dietro quell’interfaccia, qualcuno stia leggendo non solo le tue parole, ma anche i pensieri dell’intelligenza artificiale che ti risponde. È questa la nuova frontiera che 40 tra i più celebri ricercatori di intelligenza artificiale stanno spingendo con entusiasmo: chain of thought monitoring, la sorveglianza del monologo interiore delle macchine. Non dei risultati, ma dei passaggi intermedi, del “ragionamento” che un modello come ChatGPT o Claude costruisce prima di sputare la risposta finale. Per i ricercatori, un modo per prevenire comportamenti dannosi prima ancora che si manifestino. Per chiunque abbia mai digitato una domanda privata, un potenziale incubo di privacy AI.