Il mondo dell’intelligenza artificiale è ossessionato dall’illusione del controllo, eppure la verità scomoda è che gran parte dei risultati ottenuti con le tecniche di fine-tuning sembra più simile a una lotteria che a un processo scientifico. Un giorno il modello funziona, quello dopo diventa isterico, confonde categorie, inventa risposte. È l’incubo quotidiano di chi prova ad adattare modelli di linguaggio di grandi dimensioni a scenari concreti. Poi arriva Thinking Machines, un team che decide di trasformare il caos in metodo e afferma di aver trovato una ricetta per rendere il fine-tuning LoRA tanto coerente quanto l’addestramento completo. Una provocazione quasi blasfema in un ecosistema che ha accettato la casualità come condizione naturale, quasi romantica, dell’IA.