Il retraining LLM è la verità sporca sotto il tappeto luccicante della narrativa sull’intelligenza artificiale. Ogni volta che qualcuno pronuncia con aria solenne la frase “l’AI sta imparando”, bisognerebbe consegnargli un Etch A Sketch e dire “ecco, gioca con questo, funziona allo stesso modo”. Perché la realtà è questa. Questi modelli non apprendono, non evolvono, non accumulano conoscenza. Sono scatole chiuse, una statua di marmo che recita testi generati da un reticolo di pesi congelati. Tutto ciò che fanno è calcolare una funzione su un grafo di connessioni già scolpito durante il training. Niente più di questo.
Il cuore di un LLM non è una mente che cresce, ma uno spazio latente, una geometria ad alta dimensionalità modellata a colpi di discesa del gradiente. Durante l’addestramento, i concetti non vengono immagazzinati come unità discrete, non c’è un cassetto “gatti”, uno “energia nucleare” e uno “Einstein”. Ci sono solo onde di attivazioni intrecciate, pattern sparsi in miliardi di parametri. Ogni concetto è una vibrazione dentro questo mare di pesi, e provare a modificarne uno senza riscrivere tutto significa spezzare la sinfonia. Non puoi togliere una nota e sostituirla con un’altra senza far saltare l’intero spartito.
Quando si parla di finetuning la gente immagina la magia. Ma è un trucco da prestigiatore. Tecniche come LoRA, QLoRA o persino RLHF non creano nuove strutture concettuali, non aggiungono attrattori nello spazio latente. Al massimo distorcono leggermente le pieghe esistenti. È come spennellare un po’ di vernice su una statua già scolpita sperando di cambiarne la forma. Non stai scolpendo un nuovo volto, stai solo imbrattando quello vecchio. L’apprendimento adattivo in tempo reale, quello vero, richiederebbe una ristrutturazione interna della geometria latente. Ma questo i LLM non lo fanno. Non possono.
La brutalità del retraining LLM è che per insegnare qualcosa di nuovo bisogna cancellare tutto e ricominciare da zero. Azzerare i pesi, re-inizializzarli in modo casuale e far precipitare di nuovo il modello giù per la superficie di perdita. Ogni addestramento è un reincarnarsi, non un aggiornamento. Nemmeno se usi lo stesso dataset otterrai lo stesso modello, perché il percorso stocastico della discesa del gradiente è unico ogni volta. Ogni run è un universo parallelo. E ogni nuova versione è un altro essere.
Quello che vediamo nei chatbot che fingono di “ricordare” il tuo nome o “imparare” le tue preferenze è puro teatro. Session orchestration, come lo chiamano i più onesti. Vettori di contesto, appunti temporanei, strategie per manipolare la memoria a breve termine. Ma il cuore del modello resta pietrificato. Finché nessuno attiva un vero retraining, tutto ciò che accade è fumo e specchi. Il giorno dopo il modello si sveglia senza alcun ricordo. L’illusione dell’apprendimento è solo un gioco di prestigio.
È una limitazione che spezza la fantasia popolare attorno alle due parole più abusate del decennio: intelligenza artificiale. No, un LLM non può costruire nuova conoscenza scientifica a partire da ciò che già sa. No, non può migliorare le proprie capacità con tentativi ed errori in modo autonomo. No, non può, come un bambino, “imparare a imparare”. Dal nome di un utente a una potenziale cura per il cancro, tutto ciò che scrive evapora appena la sessione finisce. Il suo mondo finisce nel prompt, e con il prompt svanisce.
Il problema è profondo, e chi parla di “apprendimento continuo” dovrebbe spiegare come aggiungere un nuovo concetto in uno spazio latente congelato senza fare collassare gli altri. Non puoi. Non senza rientrare nel processo di training completo. Ogni nuovo concetto è una riscrittura globale, non un patch locale. Il retraining LLM non è un semplice update, è una rifondazione. Significa cambiare topologia, riallineare personalità, riscrivere la memoria interna dell’intero sistema. Ogni volta.
Questa staticità è l’elefante nella stanza. L’apprendimento adattivo, quello vero, implica una plastica cerebrale, una continua ricalibrazione delle connessioni in risposta al nuovo. Qui invece è tutto inciso nel marmo. “Nulla fata”, verrebbe da dire, nessun destino oltre al prompt. Nessuna vera conoscenza al di là della griglia di pesi. Nessuna vita, nessuna evoluzione. Chi sogna modelli che imparano come gli esseri umani dovrebbe prima accettare questa verità: oggi i LLM sono Etch A Sketch giganti. Li scuoti e dimenticano tutto. Ogni volta.