
RAGE-KG 2025 non è un semplice workshop accademico, ma un laboratorio dove le idee sul futuro dei modelli di linguaggio e dei Knowledge Graph si scontrano, si fondono e talvolta esplodono in direzioni inaspettate.
Nara ospita ISWC e, al suo fianco, questo evento promette di mettere a nudo le potenzialità di sistemi che combinano retrieval-augmented generation con strutture simboliche. Non si tratta più solo di lamentarsi delle allucinazioni dei modelli o dei loro vuoti conoscitivi: il preface lo chiarisce, il discorso è maturato. Ora si parla di sistemi agentici, GraphRAG, apprendimento ontologico e ragionamento basato su grafi. Un keynote capace di mettere insieme risorse semantiche di larga scala e LLM non è un lusso, ma la naturale prosecuzione di questo percorso.
Navigli, Babelscape e BabelNet non sono nomi da conferenza, sono punti di riferimento per chi prende sul serio la semantica nel NLP. Navigli non ha mai creduto che l’intelligenza artificiale linguistica potesse limitarsi a embedding nudi e crudi. Babelscape, lo spin-off accademico da lui cofondato, è laboratorio e piattaforma: Concept-pedia e NounAtlas sono esperimenti concreti di come il simbolico possa integrarsi con il statistico senza annacquare la complessità concettuale. BabelNet è la colonna portante: milioni di synset in circa seicento lingue, relazioni semantiche complesse e entità collegate in un grafo coerente. Non è magia, è progettazione.
Quando si guarda a NounAtlas, si nota un dettaglio che spesso sfugge: la maggior parte dei sistemi SRL si concentra sui predicati verbali. NounAtlas riempie il vuoto dei predicati nominali, oltre diecimila strutture argomentali coerenti che dialogano con VerbAtlas. Il risultato? LLM che non devono più improvvisare sulle relazioni nominali, perché esiste una mappa semantica interpretabile. Concept-pedia aggiunge un livello multimodale, annotato semanticamente e con copertura ampia, capace di alimentare modelli con segnali testuali, visivi e concettuali. La visione unificata è potente: non silos separati, ma un ecosistema interconnesso che permette di integrare conoscenze simboliche in LLM, senza perdere trasparenza o spiegabilità.
Il valore pratico non è banale. Un modello LLM, per quanto potente, resta una matrice numerica che riconosce correlazioni. Non spiega concetti, non tiene memoria di grafi interpretabili. Integrarlo con risorse semantiche ben progettate significa ottenere controllo, trasparenza e capacità di giustificare risposte. La generalizzazione diventa più robusta, soprattutto per lingue meno rappresentate o concetti emergenti. Multimodalità e crosslingua non sono più limiti: il grafo simbolico diventa ponte tra testo, immagini ed entità. E il ragionamento composizionale, così spesso fragile negli LLM, trova ossatura nelle relazioni esplicite di BabelNet e NounAtlas.
Dal keynote ci si aspetta concretezza. Non basta parlare di integrazione simbolico-statistica, serve mostrare pipeline modulari, modelli ibridi o approcci prompt-aware del grafo. Esempi applicativi concreti su disambiguazione, generazione controllata, traduzione semantica e question answering saranno il vero banco di prova. Le sfide restano: coerenza dei grafi, aggiornabilità continua, sincronizzazione tra embedding e relazioni simboliche, gestione del cambiamento concettuale nel tempo. Il futuro? Risorse vive, mutate, integrate in agenti semantici dinamici che interagiscono con il mondo reale, aggiornano la loro conoscenza e supportano modelli di linguaggio senza limitarsi a riprodurre correlazioni.
Curiosità: BabelNet non è solo un grafo, ma una rete che collega concetti tra lingue e domini, mentre NounAtlas e Concept-pedia introducono livelli di profondità concettuale raramente raggiunti in pipeline “black box”. In termini pratici, chi spera di costruire LLM più spiegabili, multimodali e resistenti alle allucinazioni non può ignorare questa marcia in più. Qui non si parla di sostituire i modelli numerici, ma di dotarli di un ossatura simbolica che li rende interpretabili e più affidabili. È la combinazione simbolico-statistica che potrebbe ridefinire come ragioniamo con l’intelligenza artificiale.
Il workshop RAGE-KG 2025 appare così meno come un incontro accademico e più come un laboratorio dove il futuro della linguistica computazionale e dei modelli generativi prende forma davanti agli occhi di chi sa leggere tra le righe del grafo. Chi segue Navigli, Babelscape e le loro risorse sa che il vero vantaggio non è nel modello in sé, ma in cosa gli dai da cui imparare e come gli permetti di ragionare. La marcia in più non è marketing, è ingegneria concettuale.