Alibaba sta per piazzare un altro colpo nel settore dell’intelligenza artificiale, con il lancio imminente del Qwen3, la nuova generazione della sua serie di modelli linguistici avanzati (LLM). Dopo il successo di Qwen2.5-Omni-7B, che in pochi giorni ha scalato la classifica di Hugging Face come modello open-source più popolare, la multinazionale cinese sembra intenzionata a consolidare il suo ruolo di leader nel settore, sfidando i colossi occidentali con una strategia ben mirata: potenza, efficienza e accessibilità.
L’approccio di Alibaba è chiaro: il Qwen 3 non sarà un singolo modello, ma un’intera famiglia di varianti, tra cui il Qwen3-MoE, basato su un’architettura “mixture-of-experts” (MoE). Questo design, già adottato da realtà come DeepSeek per il suo V3, consente di ottimizzare i costi di addestramento e implementazione, rendendo il modello altamente scalabile e competitivo rispetto ai giganti americani.