Intelligenza Artificiale, Innovazione e Trasformazione Digitale

Tag: ACL 2025

Native Sparse Attention: Hardware-Aligned and Natively Trainable Sparse Attention

La rivoluzione silenziosa di Deepseek: come la cina sta riscrivendo le regole dell’intelligenza artificiale globale

Nel panorama congestionato dell’intelligenza artificiale, dove tutti parlano di parametri, GPU e benchmark come fossero preghiere di una religione laica, una notizia apparentemente marginale si è insinuata come un silenzioso terremoto nel cuore dell’élite accademica. A Vienna, alla conferenza ACL, quella che nel mondo dell’AI è considerata la Champions League dei linguisti computazionali, un paper cinese ha vinto il premio per il miglior lavoro. Titolo: “Native Sparse Attention: Hardware-Aligned and Natively Trainable Sparse Attention”. Autore? O meglio, uno dei quindici co-autori: Liang Wenfeng, fondatore della start-up DeepSeek, realtà cinese che sta riscrivendo il manuale di istruzioni della scalabilità nell’intelligenza artificiale.

Has Machine Translation Evaluation Achieved Human Parity? The Human Reference and the Limits of Progress

Lorenzo Proietti Stefano Perrella Roberto Navigli

Ha davvero la valutazione automatica della traduzione raggiunto la parità umana? uno sguardo tagliente ai limiti e ai trionfi.

Non è un mistero che la traduzione automatica (MT) abbia fatto passi da gigante, tanto da spingere gli esperti a interrogarsi se i sistemi automatici di valutazione della qualità della traduzione abbiano ormai raggiunto la parità con i giudizi umani. L’articolo “Has Machine Translation Evaluation Achieved Human Parity? The Human Reference and the Limits of Progress” si immerge con rigore e un pizzico di scetticismo in questo tema, mettendo sotto la lente d’ingrandimento la validità e i confini dell’attuale stato dell’arte.

ACL 2025 Coreference Resolution at Book Level

Giuliano Martinelli, Tommaso Bonomo, Pere-Lluís Huguet Cabot,
and Roberto Navigli Sapienza NLP Group, Sapienza University of Rome

Bookcoref e la rivoluzione nella risoluzione delle coreferenze sui testi lunghi

La risoluzione delle coreferenze, quel delicato passaggio che consente a un sistema di riconoscere che “lui”, “John” e “il ragazzo” possono riferirsi allo stesso personaggio, è storicamente confinata a brevi spezzoni di testo. OntoNotes, LitBank e compagnia sono i soliti noti, ma mostrano la corda appena il testo supera i diecimila token, figuriamoci un romanzo intero. In questo contesto si inserisce BookCoref, un benchmark che alza la posta e sfida i limiti dei modelli di NLP a lavorare su libri interi, portando la risoluzione delle coreferenze da mera palestra a vero e proprio campo di battaglia.

La valutazione MCQA nei LLM: perché stiamo misurando male l’Intelligenza Artificiale ACL 2025

La favola dell’oggettività nella valutazione dei modelli linguistici è comoda, rassicurante e soprattutto redditizia. Il Multiple-Choice Question Answering, meglio noto come MCQA, è l’idolo di cartapesta che l’industria continua a venerare come se fosse la pietra di paragone dell’intelligenza artificiale. Scegli una risposta tra quattro, controlla se è giusta, proclama il vincitore e incassa il round di applausi. Peccato che dietro questa apparente semplicità si nasconda un inganno metodologico di proporzioni imbarazzanti. E la cosa ironica è che lo sappiamo già, ma continuiamo a far finta di niente. È come se il settore volesse deliberatamente autoingannarsi per evitare l’inevitabile: accettare che stiamo valutando l’intelligenza artificiale con strumenti progettati per studenti svogliati, non per modelli da centinaia di miliardi di parametri.

DeBERTa‑v3 è il miglior disambiguatore inerente dei sensi? Il CTO ironico lo dice… ACL 2025

Non c’è più spazio per racconti da fantasiosi backstage accademici. In questo aggiornamento di luglio 2025 Babelscape e Sapienza frammentano l’illusione: i PLM come BERT o DeBERTa non ignorano i sensi delle parole, ma non è neppure magia. Il paper pubblicato su ACL 2025 “How Much Do Encoder Models Know About Word Senses?” dimostra che i modelli encoder‑only possono separare le accezioni di una parola in maniera sorprendentemente efficace anche senza alcun fine‑tuning. Il cuore del lavoro è l’analisi su due inventari semantici standard: WordNet e l’Oxford Dictionary of English.

Minerva contro i giganti. perché Roberto Navigli è l’orgoglio che l’Italia non può permettersi di ignorare

In un Paese che considera ancora l’intelligenza artificiale un tema da talk show, l’idea che un professore romano possa guidare la conferenza più importante al mondo sul Natural Language Processing sembra quasi un cortocircuito culturale. Roberto Navigli, docente alla Sapienza e “papà” del Large Language Model italiano Minerva, sarà il Chair di ACL 2025, il summit globale che detta le regole del futuro digitale. Chiunque abbia compreso il significato profondo di questa notizia sa che non si tratta solo di un onore accademico. È un momento di rottura per il nostro Sistema Paese, l’ennesima dimostrazione che, quando si osa e si investe in cervelli veri, anche l’Italia può sedersi al tavolo dei giganti.

CC BY-NC-SA 4.0 DEED | Disclaimer Contenuti | Informativa Privacy | Informativa sui Cookie