Intelligenza Artificiale, Innovazione e Trasformazione Digitale

Tag: NLP

ACL 2025 Coreference Resolution at Book Level

Giuliano Martinelli, Tommaso Bonomo, Pere-Lluís Huguet Cabot,
and Roberto Navigli Sapienza NLP Group, Sapienza University of Rome

Bookcoref e la rivoluzione nella risoluzione delle coreferenze sui testi lunghi

La risoluzione delle coreferenze, quel delicato passaggio che consente a un sistema di riconoscere che “lui”, “John” e “il ragazzo” possono riferirsi allo stesso personaggio, è storicamente confinata a brevi spezzoni di testo. OntoNotes, LitBank e compagnia sono i soliti noti, ma mostrano la corda appena il testo supera i diecimila token, figuriamoci un romanzo intero. In questo contesto si inserisce BookCoref, un benchmark che alza la posta e sfida i limiti dei modelli di NLP a lavorare su libri interi, portando la risoluzione delle coreferenze da mera palestra a vero e proprio campo di battaglia.

Perché è importante decidere con che lingua addestriamo i sistemi di intelligenza artificiale: Italia vs Usa, una guerra fredda linguistica travestita da innovazione

C’è una domanda che ronza sottotraccia in ogni boardroom dove si parla di AI generativa, modelli linguistici, automazione semantica e futuri dominati da chatbot più loquaci di un politico in campagna elettorale. La domanda è: con quale lingua stiamo addestrando le intelligenze artificiali? Sembra banale, ma è una bomba semantica pronta a deflagrare nel cuore della geopolitica tecnologica. Perché se è vero che la lingua modella il pensiero, allora il predominio dell’inglese nella formazione delle AI significa una cosa sola: stiamo costruendo intelligenze con una Weltanschauung americana. Altro che neutralità algoritmica.

ACL 2025 first author country distribution e l’egemonia capovolta dell’NLP globale

6.000 partecipanti. Di cui oltre 5.300 fisicamente presenti a Vienna. Una marea umana da standing ovation per il più grande evento ACL mai organizzato nella storia del Natural Language Processing. Nella sala plenaria echeggia un messaggio più sottile del solito: il dominio occidentale sullo sviluppo del linguaggio artificiale sta finendo. La platea applaude gli opening chairs — General Chair Roberto Navigli in testa, seguito dal dream team tecnico: Wanxiang Che, Joyce Nakatumba-Nabende, Ekaterina Shutova, Mohammad Taher Pilehvar. La macchina organizzativa locale, guidata da Benjamin Roth e Dagmar Gromann, funziona con precisione austriaca. Ma dietro le slide ufficiali, il dato esplosivo è uno solo.

La Sapienza Roma: Minerva 7B, l’Italia accelera sull’intelligenza artificiale

Un Nuovo Paradigma per gli LLM Italiani
Sapienza Università di Roma ha annunciato, alla presenza di Antonella Polimeni, Rettrice della Sapienza Università di Roma; Giuseppe De Pietro, Presidente di Fair; Alessandra Poggiani, Direttrice generale di Cineca; Minerva 7B, un modello linguistico all’avanguardia che segna un importante passo in avanti nella ricerca italiana nell’intelligenza artificiale. Questo Large Language Model (LLM), frutto del lavoro del team Sapienza composto da piu’ di 15 risorse, NLP sotto la guida di Roberto Navigli Direttore del gruppo di ricerca, si distingue per la sua ottimizzazione per la lingua italiana e l’approccio innovativo alla creazione di modelli di linguaggio, con un focus particolare sulla trasparenza del processo di addestramento. Minerva 7B è stato sviluppato nell’ambito di FAIR (Future Artificial Intelligence Research), in collaborazione con CINECA, che ha messo a disposizione il supercomputer Leonardo, e grazie al finanziamento dei fondi del Piano Nazionale di Ripresa e Resilienza (PNRR).

Roberto Navigli: Pioniere dell’Intelligenza Artificiale e del Natural Language Processing in Italia

Roberto Navigli è un nome di spicco nel campo dell’elaborazione del linguaggio naturale (NLP) in Italia e a livello internazionale. Professore ordinario presso il Dipartimento di Ingegneria Informatica, Automatica e Gestionale della Sapienza Università di Roma, Navigli ha dedicato la sua carriera alla ricerca e allo sviluppo di tecnologie innovative nel settore dell’intelligenza artificiale, con un focus particolare sulla semantica lessicale e la comprensione del linguaggio naturale.

Minerva – The Pioneers of Italian Language Models

In a revolutionary step forward in the field of Artificial Intelligence, a team of Italian researchers has introduced Minerva, a family of Large Language Models (LLMs) trained entirely in the Italian language. Baptized in honor of the Roman goddess of wisdom and loyalty, Minerva represents a significant leap forward in AI technology specifically developed for the Italian language.

CC BY-NC-SA 4.0 DEED | Disclaimer Contenuti | Informativa Privacy | Informativa sui Cookie