Gli agenti autonomi basati su modelli di linguaggio non sono più i giocattoli accademici che ricordiamo del 2022, quando la corsa a ChatGPT e derivati sembrava l’apice dell’intelligenza artificiale. Oggi siamo in una fase diversa, quella in cui l’illusione di onnipotenza dei LLM incontra il muro della realtà: costi proibitivi di addestramento, limiti cognitivi e una velocità di obsolescenza che non perdona. In questo scenario emergono approcci che sovvertono il dogma. Non serve più ritoccare milioni di parametri a colpi di GPU, si può invece costruire memoria e apprendimento continuo sopra un modello congelato. Chi pensa che si tratti di un’illusione accademica non ha letto bene gli ultimi preprint.