La notizia brucia direttamente dalla fonte: giovedì 28 agosto 2025 Microsoft ha tolto i veli ai suoi primi modelli in-house MAI-Voice-1 e MAI-1-preview aprendo una nuova era dopo il lungo corteggiamento con OpenAI.

MAI-Voice-1 è un modello vocale che genera un minuto di audio in meno di un secondo, su una singola GPU. Già al lavoro in Copilot Daily (dove l’AI recita le notizie del giorno) e nei podcast-style intelligenti, e disponibile per prova in Copilot Labs, con voce, stile e contenuto personalizzabili.

MAI-1-preview invece è un modello LLM (Large Language Model) “generational glimpse” nel futuro di Copilot. Addestrato su circa 15 000 GPU Nvidia H100, promette risposte istruite e utili, orientate al consumatore e non alle enterprise. Sta entrando in alcune feature di Copilot e si testa pubblicamente su LMArena. Reuters, mesi fa, confermava l’intento di Microsoft di sviluppare modelli di ragionamento in-house e di metterli a disposizione anche via API entro l’anno.