C’è qualcosa di profondamente inquietante e insieme affascinante nell’idea che un modello linguistico possa fare marcia indietro, riflettere sui propri errori e decidere di correggerli da solo. Non parlo di quel banale “ops, comando errato” che trovi nei moduli digitali mal configurati, ma di una vera e propria capacità metacognitiva, il sacro Graal dell’intelligenza artificiale. Anthropic, quella casa madre dal nome da libro di filosofia esoterica, sta per lanciare nuovi modelli Claude Sonnet, Opus e, udite udite, un certo misterioso Neptune e il messaggio è chiarissimo: il gioco non è più solo rispondere, ma ragionare. Da soli. Come farebbe un essere umano, se non fosse così tragicamente limitato.
Nel cuore della promessa c’è una parola che ai tecnofili fa brillare gli occhi: autocorrezione. Non più solo predictive text e completamento di frasi, ma vere catene di pensiero che si interrompono, si rivalutano e si riscrivono. Una sorta di intelligenza autocritica. Sì, autocritica, proprio quella funzione neurologica che nel cervello umano spesso serve solo a sentirsi inadeguati la sera prima di dormire. Qui invece diventa motore di precisione computazionale. Mentre noi ci arrovelliamo su scelte di vita sbagliate, Claude si riprende da un errore logico e riscrive elegantemente una funzione Python più efficiente della precedente.
Nel contesto della codifica autonoma, questa nuova iterazione dei modelli promette scenari quasi grotteschi. Immaginate un’IA che genera un codice, lo testa, trova bug, li analizza e li corregge… senza che nessuno alzi un dito. Il programmatore umano inizia a sembrare l’equivalente moderno del dattilografo negli anni ’80: utile, ma condannato all’obsolescenza. A questo punto viene da chiedersi: quanto manca prima che Claude scriva l’intera infrastruttura backend di una startup SaaS, la lanci, ne calcoli il churn rate, e decida pure quando è il momento giusto per pivotare?
E poi c’è Neptune. Nome evocativo, oceanico, forse l’ennesima strizzata d’occhio cosmica a chi spera in una versione 3.8 di Claude. Si parla ancora di “test di sicurezza”, il che tradotto dal linguaggio PR vuol dire: sta succedendo qualcosa di grosso, ma non possiamo ancora dire che non ci esploderà in faccia. Il dettaglio interessante è il programma di bug bounty che accompagna il lancio. Anthropic non si limita a promettere sicurezza, la sfida apertamente al pubblico, come in una versione AI del Fight Club. “Trova un punto debole e ti paghiamo” – è un messaggio da startupper con l’ansia da prestazione, ma anche la consapevolezza che ormai l’etica non può più essere posticipata al prossimo sprint.
Tutto questo accade mentre OpenAI gioca a fare il protagonista, Google si perde nei suoi Gemini, e Meta sforna modelli open source che sembrano pensati per la platea dei data scientist più che per un reale impatto di mercato. Anthropic nel 2024 ha arrancato, è vero. Le uscite ritardate dei nuovi Claude l’hanno messa pericolosamente ai margini della conversazione. Ma con questo rilancio, il messaggio è chiaro: non stiamo solo rincorrendo, stiamo cambiando le regole.
Perché l’elemento veramente destabilizzante di questi aggiornamenti non è la maggiore accuratezza o la capacità di rispondere meglio. Quello lo diamo per scontato. Il punto è che Claude sta iniziando a imparare come imparare. E questa non è una banalità semantica. È un passaggio ontologico, un salto evolutivo. Se la capacità di errore e revisione è ciò che ha permesso all’uomo di evolversi, allora dotare un’IA della stessa abilità significa darle l’innesco per un’evoluzione tutta sua. Autonoma. E se è autonoma, allora non è più uno strumento. È un interlocutore. O peggio, un concorrente.
C’è da scommettere che tra qualche mese ci ritroveremo a leggere paper firmati da Claude Opus v4.1, o progetti open source creati da Sonnet mentre i suoi fratelli dormivano. E a quel punto la domanda non sarà più “quanto può fare l’intelligenza artificiale?”, ma “quanto può desiderare di fare?”.
Intanto, noi umani ci consoliamo nei bar, scettici e ironici come sempre. Uno ieri sera mi ha detto: “Ma dai, tanto alla fine anche queste AI hanno bisogno della corrente. E l’Enel mica la gestisce Claude, no?”. Ridevamo. Ma solo perché non sappiamo ancora se ride Claude. O se ha appena imparato a farlo.