
La Silicon Valley ha un nuovo problema. Si chiama Mistral Medium 3 ed è francese. Il modello, rilasciato da Mistral AI il giorno precedente, ha il chiaro intento di ribaltare le economie dell’AI enterprise, portando prestazioni da “frontier model” a una frazione del costo. In un settore dove le big tech sono abituate a monetizzare ogni token come fosse un’oncia d’oro, Mistral cala sul tavolo un asso: $0.40 per milione di token in input, $2 per milione in output. Per gli standard di Claude 3.7 o Gemini 2.0, è come vendere caviale al prezzo delle patatine.
Mistral Medium 3 non è solo un buon affare: è dannatamente bravo. I benchmark indipendenti lo collocano tra i migliori modelli chiusi “non-reasoning”, alla pari con Claude Sonnet 3.7, Llama 4 Maverick e Gemini 2.0 Flash. E nella programmazione, li supera tutti, facendo sembrare Llama 4 un pony zoppo in una corsa di purosangue. Secondo Sophia Yang, portavoce di Mistral AI, il modello “brilla nel coding” e “offre prestazioni decisamente migliori, su tutta la linea”, rispetto a concorrenti anche molto più grandi. Il modello gestisce 128.000 token di contesto, supporta la multimodalità e comprende documenti e input visivi in 40 lingue. Insomma, un poliglotta con PhD in informatica applicata.

C’è però un dettaglio che farà storcere il naso agli open source hardliner: Medium 3 è closed source, niente pesi scaricabili, niente esperimenti casalinghi. A differenza dei suoi fratelli minori — come Mixtral 8x22B o Codestral — questo è un prodotto pensato esclusivamente per il mondo enterprise. Non gira in locale, non è destinato a LeChat (il chatbot della casa) e non si modifica. È l’AI prêt-à-porter: elegante, costosa ma su misura per le aziende. Chi vuole sporcarsi le mani con il codice dovrà ancora affidarsi a Mixtral.
Dietro il sipario di marketing, c’è però una strategia calcolata al millimetro. Mistral AI, startup fondata nel 2023 da ex ricercatori di Google DeepMind e Meta AI, non ha perso tempo. In meno di due anni, è diventata una mina vagante in un mercato dominato da Anthropic, OpenAI, Meta e Google. La loro ricetta? Offrire potenza computazionale su scala ridotta, flessibilità API e modelli addestrabili per l’uso aziendale, il tutto senza dipendere dai soliti noti del cloud USA. In effetti, Mistral ha cominciato a costruire la propria infrastruttura computazionale—una mossa che in Europa è più che un vantaggio competitivo, è una dichiarazione politica.
L’adozione è già in corso: il modello è disponibile su Mistral La Plateforme, Amazon Sagemaker, e presto approderà anche su Google Cloud, Azure, IBM WatsonX e NVIDIA NIM. I settori target? Energia, sanità e servizi finanziari. Clienti beta stanno testando Medium 3 per ottimizzare l’assistenza clienti, personalizzare processi aziendali e sviscerare dataset complessi. Il messaggio è chiaro: Mistral non vuole essere una moda passeggera, ma il sistema operativo dell’intelligenza aziendale europea.
Ma c’è un’altra verità che vale la pena sottolineare, e che Mistral non pubblicizza troppo: hallucina meno. Sì, in un’epoca in cui i modelli LLM sembrano spesso più interessati a inventare che a rispondere, Medium 3 riesce a mantenere un tasso di allucinazioni inferiore rispetto alla media. Non batte Gemini 2.5 Pro, ma supera Llama-4, Deepseek V3 e Amazon Nova Pro. Un dato non da poco quando l’AI viene applicata a settori dove l’errore può costare milioni.
Nel frattempo, l’azienda si gode il boom: secondo quanto riportato da Arthur Mensch, CEO di Mistral, il fatturato è triplicato negli ultimi 100 giorni, con particolare slancio fuori dagli Stati Uniti. Il valore dell’azienda è ora di 6 miliardi di dollari, e la roadmap prevede qualcosa di ancora più grosso all’orizzonte. Dopo Small a marzo, Medium a maggio… è facile intuire cosa verrà dopo. E non sarà una piccola sorpresa.
La sfida ora è vedere se questa efficienza da manuale si tradurrà anche in implementazioni concrete, scalabili e senza compromessi. Ma se il buongiorno si vede dal modello, le big tech americane farebbero bene a dare un’occhiata a cosa sta succedendo nei data center parigini.