Non c’è più spazio per racconti da fantasiosi backstage accademici. In questo aggiornamento di luglio 2025 Babelscape e Sapienza frammentano l’illusione: i PLM come BERT o DeBERTa non ignorano i sensi delle parole, ma non è neppure magia. Il paper pubblicato su ACL 2025 “How Much Do Encoder Models Know About Word Senses?” dimostra che i modelli encoder‑only possono separare le accezioni di una parola in maniera sorprendentemente efficace anche senza alcun fine‑tuning. Il cuore del lavoro è l’analisi su due inventari semantici standard: WordNet e l’Oxford Dictionary of English.