Sembrava un’altra startup cinese come tante, DeepSeek, ma a gennaio ha gettato il sasso nello stagno. Con una dichiarazione arrogante: “Abbiamo costruito un LLM di livello GPT-4 con hardware cheap e budget minimo”. Ovviamente, balle. Ma le balle, quando girano bene, fanno più rumore della verità. E DeepSeek ha dato fuoco alle polveri di una corsa improvvisa – e maledettamente ipocrita – verso il sacro graal dell’open source AI, o meglio, della sua parodia: l’open weight.

Improvvisamente, tutti vogliono sembrare più open. L’Europa ci sguazza, col suo OpenEuroLLM, una risposta burocratica e trasparente (quindi inefficiente) al monopolio USA-Cina. Meta rilancia LLaMA 4, Google sforna Gemma 2, Gemma Scope e ShieldGemma. DeepMind, con un nome alla Isaac Newton, promette un motore fisico open source. In Cina, Baidu, Alibaba e Tencent si fingono open per motivi “strategici”. E persino OpenAI, soprannominata da Musk “ClosedAI”, ha improvvisamente scoperto la passione per l’apertura: “rilasceremo un modello open weight”. Ma guarda un po’.

Altman ha avuto un’epifania su Reddit, dopo DeepSeek: “Forse abbiamo sbagliato strada con il closed, dobbiamo ripensare la nostra strategia open source.” Traduzione dal CEOese: “Il pubblico inizia a notare che stiamo perdendo terreno”. Ma si sa, le opinioni di Altman sono fluide: prima la regolamentazione era il futuro, poi un freno. Prima i modelli open erano pericolosi, ora sono “interessanti”. Un giorno AI-safety evangelista, il giorno dopo imprenditore darwinista.

Perché tutta questa foga? Perché i modelli open – o meglio, open weight – offrono vantaggi strategici. A chi? A chi non ha un impero da difendere.

Per i piccoli attori, per gli europei nostalgici della sovranità digitale, per le startup disperate, i modelli open sono una chance: si possono adattare, scalare, usare senza passare da API americane con prezzi da strozzini. C’è innovazione distribuita, collaborazione accademica, e una (finta) sensazione di trasparenza.

Ma c’è anche una narrativa tossica, quella dell’open come bene assoluto. Perché è falso. L’apertura ha un costo, e spesso lo pagano gli utenti e le democrazie.

Il primo problema sono gli abusi: spam, disinformazione, deepfake, automazione tossica. Con modelli a pesi aperti, chiunque può scatenare l’inferno. Secondo: nessuno controlla più nulla. Non c’è un tasto “stop”. Quando il modello è libero, non lo richiami indietro. È la differenza tra vendere un bisturi e regalarlo a chiunque su internet.

E poi c’è il feticismo tecnico. Quasi nessuno dei modelli definiti “open source” lo è davvero. Sono open weight. E non è un dettaglio da nerd. Il codice di training, i dataset, l’infrastruttura? Spariti. Il risultato è che hai solo i pesi del modello e il codice per usarlo. Non sai come è stato addestrato, su cosa, né puoi rifarlo senza milioni di euro in GPU.

L’Open Source Initiative ha persino dovuto pubblicare una definizione ufficiale di “open AI”. Meta ovviamente non ci rientra. Allora ha fatto finta di niente e ha continuato a spacciare LLaMA come open source. Tecnicalmente, è come vendere un’auto senza dire da dove vengono i pezzi e con il cofano sigillato.

Ci sono eccezioni, come Olmo o BLOOM, che sono davvero open. Ma nessuno li usa. Perché la verità è che alla maggior parte delle aziende basta il giocattolo finito, non il progetto CAD.

E qui viene la parte interessante: il vero potere sono i pesi. Se hai i pesi, puoi fare inferenza, puoi adattare, puoi scalare. Non ti serve sapere come è stato addestrato, ti basta usarlo. È il McDonald’s dell’AI: non conosci la ricetta, ma il panino arriva sempre uguale. E ai clienti non importa.

Zuckerberg l’ha capito perfettamente. Per lui l’open è una strategia di potere, non un atto etico. Vuole che tutti i developer del mondo usino LLaMA come base per i loro modelli, per trasformare il suo metaverso morente in un ecosistema AI-first. Sa che l’LLM è una commodity, e che il vero valore sta nelle applicazioni. Come con Linux: il kernel è gratuito, ma sopra ci girano miliardi. Meta vuole essere il Red Hat dell’AI.

Zuck gioca sporco? Forse. Ma gioca meglio. OpenAI e Google, invece, temono che l’apertura accorci la distanza con i competitor. Perché, surprise surprise, se dai a tutti il tuo modello, diventa difficile restare “migliore”. Così si rifugiano nel modello API, il SaaS delle LLM: tu paghi a consumo, loro ti tengono per le palle. E ogni mese, il prezzo sale.

C’è anche una motivazione legale. Chi apre davvero – come Stability AI – si ritrova con valanghe di cause legali per uso improprio di dataset. Meglio evitare. Meglio l’ambiguità. L’open weight è una scappatoia perfetta: abbastanza “aperto” per piacere agli sviluppatori, abbastanza “chiuso” da non finire in tribunale.

Alla fine, il dibattito open vs closed è solo un riflesso del contesto geopolitico. Gli USA, sempre più chiusi, isolazionisti, paranoici, vanno verso modelli API controllati. L’Europa e la Cina, tagliate fuori dall’infrastruttura americana, scommettono sull’open per motivi di sovranità tecnologica. Non è una questione etica, è sopravvivenza.

Questa tensione rispecchia perfettamente la legge del fisico Adrian Bejan: i sistemi devono facilitare il flusso per sopravvivere. L’informazione, come l’acqua o l’energia, deve scorrere. Chi blocca il flusso – con silos, censure, protezionismi – si condanna a morire. Vale per la natura, vale per l’AI.

Ed è per questo che, alla lunga, l’open vincerà. Forse non quello romantico, etico, radicale. Ma un open pragmatico, ambiguo, a metà. Perché anche le illusioni, se ben confezionate, creano movimento. E il movimento è vita. Anche quando puzza un po’.

Del resto, come diceva quel tale: “Il software libero non è una questione di prezzo. È una questione di libertà. E anche la libertà può essere monetizzata.”

Benvenuti nell’epoca dell’AI open-ish.