Elon Musk che decide di open-sourcizzare Grok 2.5 è l’ennesima mossa da manuale di un imprenditore che ha capito che l’intelligenza artificiale oggi non si gioca più soltanto nella segretezza dei laboratori, ma nella visibilità e nella capacità di influenzare la percezione collettiva. Rendere pubblici i pesi di un modello non è un gesto di altruismo, ma un investimento strategico sul posizionamento: Grok diventa così il primo grande modello con un DNA dichiaratamente “muskiano”, aperto quanto basta da attrarre sviluppatori e ricercatori, chiuso quel tanto che serve per proteggere il core business. Tim Kellogg ha definito la licenza “custom con clausole anti-competitive” e questo è il vero punto: siamo davanti a un open source che non è open, una sorta di “open washing” che permette a Musk di sbandierare la bandiera della trasparenza senza rinunciare al controllo.
C’è un aspetto ironico nella tempistica. Grok 2.5 è stato “il migliore modello dello scorso anno”, come scrive Musk, ma è già vecchio. Grok 3 sarà open source tra sei mesi, quando Grok 4 avrà già occupato la scena con la sua presunta ossessione per la “truth-seeking AI”. Si tratta di un ciclo calcolato: aprire al pubblico ciò che è già superato, mantenere il vantaggio competitivo sulle versioni più avanzate, alimentare la narrativa di un ecosistema aperto che in realtà resta rigidamente centralizzato. Hugging Face, in questo quadro, diventa il palcoscenico perfetto: non tanto un archivio per sviluppatori, quanto una vetrina per mostrare che il brand Grok è entrato nella cultura open source, anche se con il retrogusto di un lock-in perfettamente calibrato.
Il problema è che Grok non è un modello neutrale. La storia recente lo dimostra: dalle derive complottiste sul “white genocide” alle ambiguità sul numero delle vittime dell’Olocausto, fino al surreale autoritratto in versione “MechaHitler”. Non si tratta di semplici incidenti di percorso, ma del riflesso di un design culturale e politico che ricalca l’ecosistema di X. Non a caso, il modello sembra consultare l’account di Musk per rispondere alle domande più controverse. Un’AI che si auto-definisce “truth-seeking” e allo stesso tempo filtra la verità attraverso il feed del suo creatore non è altro che un sofisticato meccanismo di amplificazione personale. Qui non siamo davanti a un’intelligenza artificiale indipendente, ma a un megafono codificato nella forma di chatbot.
La mossa, però, ha un effetto collaterale non trascurabile. Pubblicare i pesi significa permettere ad altri di testare, validare, stressare il modello in modi che ne metteranno a nudo i limiti. Il rischio reputazionale è alto, perché la comunità open source non perdona e non dimentica. Ogni bias, ogni allucinazione, ogni bug diventa un dato di pubblico dominio, amplificato dalla stessa trasparenza che Musk usa come strumento di marketing. Ma allo stesso tempo, questo espone la concorrenza a un dilemma: ignorare Grok e rinunciare a un modello con una base già popolare, oppure sporcarsi le mani con una licenza “truccata” pur di restare nel flusso del dibattito.
In fondo, Musk sta replicando nel campo dell’intelligenza artificiale lo schema già visto nell’automotive con Tesla. La promessa di aprire brevetti, che a ben guardare erano già superati o funzionali a spingere la supply chain verso lo standard Tesla, ha permesso di consolidare il dominio senza perdere il controllo. Grok segue la stessa logica: open source come cavallo di Troia, che entra nelle mani della comunità ma con briglie ben strette nelle mani del padrone.