Mentre il mercato dell’intelligenza artificiale continua a scoppiare di modelli sempre più grandi, affamati di RAM e addestrati a colpi di miliardi di parametri, Microsoft tira fuori dal cilindro una piccola rivoluzione: Phi-4-mini-reasoning. Non lasciarti ingannare dal nome: questo modello “mini” da 3.8 miliardi di parametri sputa fuori soluzioni matematiche e ragionamenti logici che mettono in imbarazzo modelli ben più muscolosi come LLaMA-3, DeepSeek-R1-Distill-70B o OpenThinker-7B. Per dare un’idea: durante le valutazioni Math-500 e GPQA Diamond, Phi-4-mini ha letteralmente fatto a pezzi modelli due volte più grandi. E tutto questo senza bisogno di un supercomputer: gira su laptop con CPU e GPU standard, ottimizzato anche per NPU nei nuovi Copilot+ PC. Hai presente? Quei PC che promettono prestazioni AI native, local-first, zero latenza e batteria che non si autodistrugge dopo 10 minuti.