La domanda è vecchia quanto l’informatica moderna ma oggi è diventata improvvisamente scomoda. Le macchine capiscono davvero il linguaggio oppure lo simulano con una raffinatezza statistica che inganna anche gli esseri umani più istruiti. Negli studi di Roberto Navigli questa ambiguità non viene mai liquidata con slogan. Al contrario viene smontata pezzo per pezzo, con la pazienza di chi ha lavorato per decenni sulla semantica computazionale quando non era ancora di moda chiamarla AI.

Il passato dei modelli linguistici, come Navigli ricorda spesso, è fatto di regole, ontologie, Word Sense Disambiguation, tentativi ostinati di insegnare alle macchine che una parola non è una stringa ma un concetto situato in un contesto. Sistemi fragili, costosi, poco scalabili, ma animati da un’idea chiara: capire significa rappresentare il significato. Non predire la parola successiva. Capire.

Il presente è dominato dai Large Language Model, addestrati su quantità di testo che nessun essere umano potrebbe leggere in mille vite. Funzionano in modo impressionante, producono risposte fluide, coerenti, talvolta brillanti. Navigli non nega il salto tecnologico, sarebbe intellettualmente disonesto. Ma mette il dito nella ferita: questi modelli non possiedono una rappresentazione semantica profonda del mondo. Manipolano correlazioni. Ottimizzano probabilità. Quando sembrano capire, stanno spesso imitando il linguaggio di chi capisce. Una differenza sottile, ma strutturale.

Il futuro, secondo questa linea di ricerca, non è una fuga in avanti fatta solo di più parametri e più dati. È un ritorno selettivo al significato. Integrazione tra modelli neurali e conoscenza simbolica. Sistemi che non solo parlano bene, ma sanno perché stanno parlando. In un’epoca in cui i LLM vengono venduti come oracoli universali, Navigli ricorda una verità poco popolare nel marketing tecnologico: il linguaggio senza semantica è retorica. Funziona finché non serve affidabilità.

La provocazione finale resta sospesa nell’aria, come è giusto che sia. Le macchine capiscono il linguaggio. Non ancora. E fingere che lo facciano è il modo più rapido per costruire sistemi affascinanti, potenti e profondamente irresponsabili. Un rischio che la ricerca seria, quella vera, continua ostinatamente a non voler correre.

La quarantesima edizione, AAAI-26, lo ha confermato senza bisogno di proclami. Quando riunisci il gotha mondiale dell’intelligenza artificiale, non vai lì per celebrare l’ennesimo benchmark battuto, ma per capire cosa resta valido quando l’hype si ritira. E soprattutto cosa non lo è mai stato.

Dentro questo contesto, l’intervento di Roberto Navigli, AAAI Fellow e Senior Member, ha avuto il pregio raro di porre una domanda che molti evitano con cura quasi superstiziosa. La disambiguazione del senso delle parole è morta nell’era degli LLM oppure stiamo semplicemente fingendo che non serva più perché i numeri, per ora, sorridono.

La tesi di Navigli è elegante e fastidiosa al punto giusto. I Large Language Model funzionano. Funzionano molto bene. Superano test, generano testo fluente, traducono con una disinvoltura che avrebbe fatto impallidire i sistemi simbolici di un decennio fa. Ma il punto non è la performance media. Il punto è dove falliscono, e soprattutto perché falliscono. I sensi rari, le ambiguità sottili, i contesti multilingue, le traduzioni dove il significato non è una media statistica ma una scelta semantica precisa. Lì il trucco si vede.

La disambiguazione del senso delle parole, in questo scenario, non appare come una reliquia accademica da museo NLP. Diventa uno strumento diagnostico. Una TAC semantica applicata ai modelli contemporanei. Serve a capire se un sistema ha davvero competenza lessicale o se sta semplicemente surfando su correlazioni addestrate. Serve a misurare robustezza, interpretabilità, affidabilità. Tutte parole che spariscono misteriosamente quando si parla di demo, ma riappaiono quando si parla di sistemi critici.

Navigli ribalta così la narrativa dominante. Il WSD non è morto. È diventato scomodo. Perché costringe a guardare sotto la superficie levigata delle metriche aggregate. Costringe a distinguere tra linguaggio prodotto e linguaggio compreso. E ricorda una verità che l’industria tende a dimenticare con sorprendente velocità. Se non sai spiegare che senso stai usando, non stai capendo. Stai solo indovinando bene.

In un’epoca in cui l’intelligenza artificiale viene raccontata come inevitabile e onnisciente, questo tipo di interventi servono come attrito cognitivo. Non rallentano il progresso. Lo rendono meno cieco. E in un settore che muove decisioni, denaro e potere, non è un dettaglio accademico. È una questione di responsabilità tecnologica.

Riferimenti: https://babelscape.com/research/publication/is-word-sense-disambiguation-dead-in-the-llm-era