La corsa ai modelli giganti è la versione moderna della febbre dell’oro, con ogni laboratorio che gareggia a chi possiede più parametri, più GPU, più potenza computazionale. È la narrativa che domina da anni: più grande è il modello, più è intelligente, più ci avviciniamo all’AGI. Una favola costosa, alimentata da hype, che si scontra brutalmente con la realtà dei sistemi agentici in produzione. Perché, sorpresa, la maggior parte dei carichi di lavoro degli agenti non ha bisogno di un mostro da 175 miliardi di parametri, ha bisogno di rapidità chirurgica, controllo stretto e costi sostenibili. È questa la tesi tagliente dell’ultimo paper di NVIDIA Research, dal titolo che è già un manifesto: “Small Language Models are the Future of Agentic AI”.