Nel vasto universo dell’intelligenza artificiale, il multilinguismo non è più un’opzione decorativa: è diventato il cuore pulsante di ogni strategia realmente globale. L’ultimo aggiornamento di Babelscape, che porta a 28 le lingue coperte dal suo set di dati avanzato, non è solo un salto quantitativo, ma un’evoluzione qualitativa che ridefinisce le regole del gioco per chi lavora con i modelli linguistici su scala internazionale.
In un mondo iperconnesso, dove ogni parola può avere mille sfumature, saper gestire il linguaggio significa saper gestire il rischio, l’identità e la fiducia. Ecco perché l’ampliamento del dataset multilingue, arricchito da annotazioni semantiche dettagliate e indicatori di rischio interculturale, rappresenta un asset strategico per le organizzazioni che operano nei settori più esposti: dalla finanza regolamentata al marketing globale, dalla compliance legale alla comunicazione istituzionale.
Non si tratta semplicemente di “tradurre bene”, ma di comprendere a fondo le dinamiche linguistiche che possono impattare sulle decisioni operative e sulla percezione del brand. Per questo Babelscape ha investito nel creare uno strumento capace di supportare decisioni intelligenti, basate su una comprensione profonda delle variabili culturali e semantiche.
Nel frattempo, sul fronte della ricerca, il team continua a dare forma al futuro della NLP con nuove pubblicazioni peer-reviewed presentate alle principali conferenze internazionali. L’analisi delle incongruenze nei punteggi degli LLM su domande a risposta multipla, lo sviluppo di Aurora-M il primo modello multilingue open source classificato come “red-teamed” secondo gli standard dell’ordine esecutivo USA e l’ottimizzazione simbolica dell’italiano negli LLM, sono solo alcune delle punte di diamante che confermano l’approccio scientifico rigoroso e visionario di Babelscape.
Non si tratta solo di avanzamenti tecnici: è un modo diverso di concepire il ruolo della lingua nell’era della generative AI. Invece di temere la complessità culturale, Babelscape la abbraccia, trasformandola in conoscenza utile, in precisione operativa, in reale inclusività linguistica.
Ed è proprio questa visione che viene premiata anche fuori dal perimetro accademico. Roberto Navigli, figura chiave della missione scientifica di Babelscape, ha ricevuto il prestigioso Premio Capo d’Orlando, riconoscimento che dal 1999 celebra l’eccellenza nella comunicazione e nella divulgazione scientifica. Un traguardo che testimonia come la ricerca, quando ben direzionata, possa generare valore reale per la società.
C’è un messaggio profondo in tutto questo: la tecnologia linguistica non è solo infrastruttura, ma cultura, accessibilità, equità. E Babelscape dimostra che, con i giusti strumenti, la diversità linguistica non è un ostacolo, ma una leva strategica per costruire un’intelligenza artificiale davvero al servizio del mondo. Tutto il mondo, nessuno escluso.
Come direbbe Borges: “Ogni lingua è un universo”. Ed è bello sapere che qualcuno sta costruendo mappe affidabili per esplorarli tutti.
Questo mese, Babelscape ha presentato 3 nuovi articoli a conferenze NLP di alto livello, continuando a spingere i confini dell’intelligenza artificiale multilingue:
- Risposta corretta, punteggio sbagliato: scoprire le incongruenze della valutazione LLM nelle risposte a domande a risposta multipla Francesco Maria Molfese, Luca Moroni, Luca Gioffrè, Alessandro Scirè, Simone Conia, Roberto Navigli
Risultati dell’ACL 2025 - Aurora-M: il primo modello linguistico multilingue open source in team rosso secondo l’ordine esecutivo statunitense T. Nakamura, M. Mishra, S. Tedeschi, Y. Chai, J. Stillerman, F. Friedrich, P. Yadav, T. Laud, V. Chien, T. Zhuo, D. Misra, B. Bogin, X. Vu, M. Karpinska, A. Dantuluri, W. Kusa, T. Furlanello, R. Yokota, N. Muennighoff, S. Pai, T. Adewumi, V. Laippala, X. Yao, A. Junior, A. Ariyak, A. Drozd, J. Clive, K. Gupta, L. Chen, Q. Sun, K. Tsui, N. Persaud, N. Fahmy, T. Chen, M. Bansal, N. Monti, T. Dang, Z. Luo, T. Bui, R. Navigli, V. Mehta, M. Blumberg, V. Maggio, H. Nguyen, S. Pyysalo
Atti del COLING 2025 - Ottimizzare gli LLM per l’italiano: ridurre la fertilità simbolica e migliorare l’efficienza attraverso l’adattamento del vocabolario Luca Moroni, Giovanni Puccetti, Pere-Lluís Huguet Cabot, Andrei Stefan Bejgu, Alessio Miaschi, Edoardo Barba, Felice Dell’Orletta, Andrea Esuli, Roberto Navigli
Risultati della NAACL 2025