Sembrava un’altra startup cinese come tante, DeepSeek, ma a gennaio ha gettato il sasso nello stagno. Con una dichiarazione arrogante: “Abbiamo costruito un LLM di livello GPT-4 con hardware cheap e budget minimo”. Ovviamente, balle. Ma le balle, quando girano bene, fanno più rumore della verità. E DeepSeek ha dato fuoco alle polveri di una corsa improvvisa – e maledettamente ipocrita – verso il sacro graal dell’open source AI, o meglio, della sua parodia: l’open weight.
Improvvisamente, tutti vogliono sembrare più open. L’Europa ci sguazza, col suo OpenEuroLLM, una risposta burocratica e trasparente (quindi inefficiente) al monopolio USA-Cina. Meta rilancia LLaMA 4, Google sforna Gemma 2, Gemma Scope e ShieldGemma. DeepMind, con un nome alla Isaac Newton, promette un motore fisico open source. In Cina, Baidu, Alibaba e Tencent si fingono open per motivi “strategici”. E persino OpenAI, soprannominata da Musk “ClosedAI”, ha improvvisamente scoperto la passione per l’apertura: “rilasceremo un modello open weight”. Ma guarda un po’.