C’è qualcosa di profondamente inquietante e insieme affascinante nell’idea che un modello linguistico possa fare marcia indietro, riflettere sui propri errori e decidere di correggerli da solo. Non parlo di quel banale “ops, comando errato” che trovi nei moduli digitali mal configurati, ma di una vera e propria capacità metacognitiva, il sacro Graal dell’intelligenza artificiale. Anthropic, quella casa madre dal nome da libro di filosofia esoterica, sta per lanciare nuovi modelli Claude Sonnet, Opus e, udite udite, un certo misterioso Neptune e il messaggio è chiarissimo: il gioco non è più solo rispondere, ma ragionare. Da soli. Come farebbe un essere umano, se non fosse così tragicamente limitato.
Nel cuore della promessa c’è una parola che ai tecnofili fa brillare gli occhi: autocorrezione. Non più solo predictive text e completamento di frasi, ma vere catene di pensiero che si interrompono, si rivalutano e si riscrivono. Una sorta di intelligenza autocritica. Sì, autocritica, proprio quella funzione neurologica che nel cervello umano spesso serve solo a sentirsi inadeguati la sera prima di dormire. Qui invece diventa motore di precisione computazionale. Mentre noi ci arrovelliamo su scelte di vita sbagliate, Claude si riprende da un errore logico e riscrive elegantemente una funzione Python più efficiente della precedente.