
La notizia brucia direttamente dalla fonte: giovedì 28 agosto 2025 Microsoft ha tolto i veli ai suoi primi modelli in-house MAI-Voice-1 e MAI-1-preview aprendo una nuova era dopo il lungo corteggiamento con OpenAI.
MAI-Voice-1 è un modello vocale che genera un minuto di audio in meno di un secondo, su una singola GPU. Già al lavoro in Copilot Daily (dove l’AI recita le notizie del giorno) e nei podcast-style intelligenti, e disponibile per prova in Copilot Labs, con voce, stile e contenuto personalizzabili.
MAI-1-preview invece è un modello LLM (Large Language Model) “generational glimpse” nel futuro di Copilot. Addestrato su circa 15 000 GPU Nvidia H100, promette risposte istruite e utili, orientate al consumatore e non alle enterprise. Sta entrando in alcune feature di Copilot e si testa pubblicamente su LMArena. Reuters, mesi fa, confermava l’intento di Microsoft di sviluppare modelli di ragionamento in-house e di metterli a disposizione anche via API entro l’anno.
Microsoft ribadisce una strategia di “orchestrazione” di modelli specializzati, un’architettura ibrida che mixa risorse MAI, partner e open-source per servire gli utenti in modo mirato.
Il senso è chiaro: rendersi meno dipendenti da OpenAI, acquisire controllo totale e orchestrare un parco AI modulare. Il leader AI Mustafa Suleyman incarna questa svolta, passando da DeepMind a Inflection e ora a guidare il reparto AI di Microsoft. Il futuro è un puzzle potente e personalizzato, lontano dalle armate esterne.