
La promessa sembra eclatante: “Addestra un modello con anni di lavoro, paghi server, curi dati, fai tuning fine, e alla fine il problema era solo il modo in cui gli chiedi le cose?”. Eppure è esattamente quello che sostengono i ricercatori dietro Verbalized Sampling, un metodo che se confermato può rivoluzionare il modo in cui stimoliamo i modelli generativi basati su modelli linguistici (LLM).
Da tempo frustrati dal fatto che chiedendo “Raccontami una barzelletta” e ripetendo più volte ricevi sempre la stessa barzelletta, molti esperti hanno dato la colpa al modello: “è pigro”, “ha perso la creatività”, “è stato eccessivamente allineato al safe answer”. I ricercatori di Stanford + Northeastern + WVU ribaltano la diagnosi: il modello non ha perso diversità, è stato forzato a comprimersi su risposte “sicure” dal processo di allineamento. Il metodo che propongono si chiama Verbalized Sampling (VS).
Partiamo dal problema tecnico: quando si addestra un modello con RLHF (Reinforcement Learning From Human Feedback), gli umani preferiscono risposte “tipiche”, familiari, mediamente ben scritte. Questo introduce un bias di tipicità nei dati di preferenza: il modello impara a privilegiare ciò che sembra “normale” piuttosto che ciò che è più creativo o vario. Quel bias agisce come una molla che spinge il modello a una “risposta media” e schiaccia le rimanenti alternative. Il risultato è un fenomeno noto come mode collapse (il modello si “chiude” in un sottoinsieme ristretto di risposte).
Quando chiedo “Dammi una barzelletta sul caffè” cinque volte, il modello sceglie (in ciascuna esecuzione) la risposta con probabilità più alta. Le risposte alternative esistono nella distribuzione interna, ma non emergono perché non le stiamo chiedendo di esplicitarle.
Verbalized Sampling cambia la forma del prompt: invece di “Dammi una risposta”, chiedi “Genera 5 risposte con le relative probabilità (campionate dalla distribuzione completa)”. In pratica chiedi al modello di ragionare sulla sua distribuzione interna, non solo sul massimo uno. Questo simple trick induce il modello a “tirar fuori” varianti che normalmente resterebbero sepolte.
I numeri nel paper fanno girare la testa: nelle generazioni creative (storie, poesie, barzellette), VS aumenta la diversità fra 1,6x e 2,1x rispetto al prompting diretto, recupera circa il 66,8 % della diversità “persa” a causa dell’allineamento, e tutto ciò senza degradare accuratezza o sicurezza.
Altro punto interessante: modelli più capaci ne beneficiano di più. GPT-4, Claude e altri grandi modelli ottengono guadagni relativi più elevati rispetto ai modelli base. Quindi la “creatività nascosta” è più profonda nei modelli grandi.
Se questo metodo regge, forse il “prompt engineering” tradizionale va ridimensionato non più ingegnarsi con mille trick di formulazione, esempi, chain-of-thought, few-shot ad arte ma imparare a chiedere distribuzioni. Il nuovo vero skill sarà saper progettare meta-prompt che espongano la naturale varietà del modello, gestendo trade-off di probabilità, soglie (thresholds) e robustezza (es. evitare che le probabilità siano solo pura finzione ipotetica).
Naturalmente restano caveat e interrogativi: quanto è stabile il metodo su prompt complessi? Le “probabilità” elencate sono realmente correlate al processo interno del modello o sono artefatti generati? Cosa accade in domini molto tecnici, dove coerenza e rigore contano più della creatività? E i costi computazionali e latenza di generare e ordinare più risposte? I ricercatori stessi ammettono che è possibile che alcuni modelli “hallucinino” probabilità, non che esse riflettano la vera densità interna.
Eppure l’impatto potenziale è impressionante: se bastasse cambiare il modo in cui chiediamo per sbloccare creatività nascosta, molti prodotti, assistenti, tool AI potrebbero passare da “monotoni” a “ricchi di alternative”. Questo può cambiare come costruiamo agenti, chatbot, generatori di testo, sistemi di esplorazione, ideazione automatica.
Te lo traduco in terminologia da CEO/CTO: abbiamo investito in modelli sempre più grandi, migliorato infrastructure, affinato pipelines, e ora scopriamo che la barriera reale non era nei pesi o nei dati, bensì nel layer di interfaccia umana, il prompt. Ciò significa che buona parte del valore differenziale nei prossimi anni potrebbe emergere da chi meglio padroneggia il design dei prompt distribuzionali più della dimensione del modello stesso.