Elon Musk non ama giocare in difesa. Dopo le cannonate su OpenAI e il suo distacco (tra scontri legali e teatrini su X), ora mette sul tavolo la sua personale versione dell’IA generativa: Grok 3. L’API del modello di punta della sua startup xAI è ufficialmente online, con tanto di listino prezzi – che, neanche a dirlo, è un manifesto ideologico prima ancora che commerciale.
Per chi si fosse perso qualche puntata, Grok è il nome della famiglia di modelli sviluppati da xAI. A detta di Musk, rappresentano “la vera alternativa open alla censura woke”. Al netto delle sparate di marketing, Grok 3 arriva in quattro versioni: il modello base, la versione Mini, e per entrambe l’upgrade con capacità di “reasoning” il che oggi significa poco, visto che anche i modelli dei competitor ormai spacciano per ragionamento ciò che è solo inferenza statistica mascherata da logica.
La pricing strategy merita un’analisi più chirurgica. Grok 3 costa 3 dollari per ogni milione di token in input (circa 750.000 parole) e 15 dollari per ogni milione di token in output. La Mini, per chi ha budget da startup e sogni da unicorno, scende a 0,30 e 0,50 dollari rispettivamente. Ma se vuoi il turbo – cioè elaborazioni più rapide – il prezzo sale a 5 e 25 dollari per Grok 3, e a 0,60 e 4 dollari per la versione light. Non è una svista, è strategia: prezzi aggressivi sull’entry point, margini alti dove conta davvero – sull’output e sulla velocità.
Dal punto di vista tecnico, il posizionamento è chiaro. Grok 3 si vuole confrontare con i modelli più performanti sul mercato, come Claude 3.7 Sonnet di Anthropic, con cui condivide sia il segmento “reasoning” sia il pricing (quasi identico). Ma il problema è che Gemini 2.5 Pro di Google – che costa sensibilmente meno – batte Grok 3 su buona parte dei benchmark pubblici. E qui il re è nudo: o Musk sta vendendo una filosofia più che un prodotto, oppure punta solo a ritagliarsi una nicchia ideologizzata, disposta a pagare un premium per “la vera IA libera”.
Il lancio dell’API è una mossa necessaria per entrare nel gioco enterprise. Nessuna azienda seria lavora con un modello chiuso e senza API. Con questo passo, xAI si mette finalmente nella mischia, anche se la partita si gioca su un campo già affollatissimo, con nomi pesanti e modelli che bruciano GPU come se non ci fosse un domani. Ma è anche un tentativo di sfruttare l’effetto Musk: lo stesso motivo per cui ci sono utenti disposti a passare da ChatGPT a Grok solo perché integrato su X, nonostante la qualità sia oggettivamente inferiore su molte task.
La sfida vera, però, sarà quella della scalabilità. Tenere su un LLM con capacità di reasoning, con tempi di risposta rapidi e API aperte al pubblico, significa bruciare denaro ogni minuto. E a meno di un accordo infrastrutturale con qualche colosso del cloud – o un’architettura interna da capogiro – xAI rischia di diventare l’ennesimo progetto visionario che si schianta contro i margini operativi.
Nel frattempo, Musk sembra voler costruire un’IA non tanto per competere con OpenAI o Google, quanto per ridisegnare un ecosistema parallelo: X, xAI, Tesla, Neuralink, Starlink. Ogni pezzo ha un suo ruolo, ma la regia è unica. Grok non è solo un chatbot. È una pedina nel piano di Musk per costruire un’infrastruttura cognitiva proprietaria, controllata, alternativa. A chi? A tutti gli altri.
Se la strategia funzionerà o no, lo diranno i prossimi trimestri. Ma una cosa è chiara: con l’API di Grok 3, Musk ha finalmente smesso di twittare e ha iniziato a codare.