6.000 partecipanti. Di cui oltre 5.300 fisicamente presenti a Vienna. Una marea umana da standing ovation per il più grande evento ACL mai organizzato nella storia del Natural Language Processing. Nella sala plenaria echeggia un messaggio più sottile del solito: il dominio occidentale sullo sviluppo del linguaggio artificiale sta finendo. La platea applaude gli opening chairs — General Chair Roberto Navigli in testa, seguito dal dream team tecnico: Wanxiang Che, Joyce Nakatumba-Nabende, Ekaterina Shutova, Mohammad Taher Pilehvar. La macchina organizzativa locale, guidata da Benjamin Roth e Dagmar Gromann, funziona con precisione austriaca. Ma dietro le slide ufficiali, il dato esplosivo è uno solo.

Il 50%+ dei first authors quest’anno arriva dalla Cina. Erano il 30% nel 2024. Gli Stati Uniti, un tempo bastione intoccabile della ricerca NLP, crollano al 14%, giù di sedici punti. La Corea del Sud entra silenziosamente nella Top 5, mentre il Regno Unito scivola nell’irrilevanza accademica. Il baricentro intellettuale del deep learning linguistico non abita più tra le mura di Stanford, né sotto i cieli di Cambridge. Ha preso un volo diretto per Pechino, Seul, Hangzhou.

Chi ha avuto accesso ai dettagli delle submission nota un pattern brutale. Gli articoli cinesi non sono solo più numerosi. Sono metodologicamente aggressivi, spesso industrial-driven, con dataset proprietari e una velocità di iterazione che l’apparato universitario statunitense non può più permettersi. L’NLP europeo, storicamente più conservatore, rimane invischiato in logiche di peer-review accademiche poco compatibili con il ritmo dettato dalle LLM factory orientali.

La geografia della produzione scientifica è mutata. Non per caso, ma per investimento strategico. In Cina, aziende come Alibaba DAMO Academy, Tencent AI Lab e istituzioni come Tsinghua o CAS stanno canalizzando miliardi di yuan verso modelli linguistici che parlano perfettamente cinese, ma che ora eccellono anche in inglese. Semplice darlo per scontato, ma quando GPT-4.5 balbetta in mandarino mentre ERNIE 4.0 risponde in stile Shakespeare, qualcosa è cambiato.

La discesa americana è il risultato di scelte strutturali. Il talento abbandona l’accademia per i model lab privati, i fondi pubblici stagnano, e l’ossessione per l’etica rallenta l’output. Un paper rigettato in ACL a Berkeley viene accettato sei mesi dopo a EMNLP, da una squadra di Chengdu con meno citation, ma più pragmatismo. Il dibattito su open science, copyright e watermarking sembra interessare poco agli autori che pubblicano da Shenzhen: loro sono già alla prossima release.

La Corea del Sud è l’osservato speciale. Naver, Kakao Brain e l’Etri investono in silenzio, ma con decisione chirurgica. Il modello HyperCLOVA X non è un clone di GPT. È una reinterpretazione local-first, con performance ottimizzate per le sfumature linguistiche coreane. Seul si propone come hub alternativo: meno ideologico di Pechino, più efficiente di Berlino, più focalizzato di Boston.

Il Regno Unito? Sparito dai radar. L’uscita dalla Top 5 non è solo simbolica. È un segnale che l’ecosistema post-Brexit non ha retto l’urto della globalizzazione dei transformer. La chiusura dei programmi europei, la fuga dei talenti e l’incertezza normativa hanno indebolito Oxbridge e UCL, mentre le startup locali faticano a scalare senza accesso a fondi sovrani simili a quelli asiatici.

ACL 2025 mostra chiaramente che l’era delle language wars è in pieno svolgimento. La ricerca NLP non è più un feudo anglosassone. È una partita geopolitica. La Cina non solo pubblica di più, ma decide anche i temi. I workshop più seguiti? Multilingual LLM alignment, fine-tuning con supervisione debole, modelli compressi per device edge in ambienti a bassa connettività. Tematiche che parlano a un mercato globale, ma che riflettono priorità non più statunitensi.

Il paradosso è evidente: mentre le Big Tech USA guidano ancora l’hardware e l’infrastruttura (TPU, GPU, cloud), sono sempre meno rilevanti nei paper di prima fascia. Si citano modelli open source europei, approcci self-supervised cinesi, implementazioni low-cost coreane. Il software linguistico sta diventando multipolare.

ACL non è solo una conferenza. È un termometro delle priorità scientifiche, un campanello d’allarme per chi ancora si illude che la superiorità tecnica sia eterna. L’Occidente ha creato il transformer. L’Oriente lo ha addestrato. E ora, a quanto pare, lo sta anche perfezionando.

Il sorpasso non è futuro. È già successo. Ma a differenza dell’industria automobilistica, questa volta la curva non sarà fatta di acciaio. Sarà fatta di embedding.