Il ritorno di Google nel campo dell’open AI non è un semplice aggiornamento di prodotto, è un segnale strategico che molti nel settore faranno finta di non vedere, almeno finché non sarà troppo tardi. Per oltre un anno, mentre la narrativa occidentale restava ossessionata dalla supremazia dei modelli chiusi e dalle API come nuovo petrolio digitale, il vero movimento tettonico avveniva altrove, in silenzio, con una rapidità quasi industriale. La Cina costruiva, iterava, distribuiva. Gli Stati Uniti osservavano, litigavano sulle licenze, monetizzavano.

Ora qualcosa si rompe.

Gemma 4 non è solo una famiglia di modelli. È un tentativo esplicito di riconquistare terreno in un ecosistema che Google stessa aveva lasciato andare, forse per eccesso di prudenza legale, forse per quella tipica arroganza da incumbente che confonde leadership con inerzia. La scelta della licenza Apache 2.0 non è un dettaglio tecnico, è un cambio di paradigma. Significa rinunciare a un controllo diretto per guadagnare qualcosa di molto più prezioso: diffusione incontrollata.

Chi ha vissuto abbastanza cicli tecnologici riconosce questo schema. È lo stesso che ha permesso a Linux di vincere senza mai “vendere” davvero nulla. È il modello che ha trasformato Android in un sistema operativo dominante. Aprire, perdere il controllo, vincere lo stesso. O forse proprio per quello.

Nel frattempo, il mercato degli open model si era trasformato in un curioso laboratorio geopolitico. DeepSeek, Qwen, GLM, Minimax. Nomi che fino a due anni fa circolavano in nicchie accademiche, oggi dominano benchmark e deployment reali. La crescita dall’1,2% al 30% di utilizzo globale nel giro di dodici mesi non è un’anomalia statistica. È una dichiarazione di guerra industriale.

Chi continua a pensare che l’intelligenza artificiale sia una questione di “chi ha il modello migliore” sta guardando la partita sbagliata. Il vero gioco è chi controlla l’infrastruttura cognitiva distribuita. Non il cervello centrale, ma i milioni di piccoli cervelli locali che eseguono, modificano, si adattano.

Gemma 4 si inserisce esattamente qui.

Quattro modelli, quattro livelli di potenza, dallo smartphone al data center. Non è solo una questione di scaling, è una dichiarazione architetturale. L’AI non sarà centralizzata. O meglio, non solo. Il futuro è ibrido, edge-heavy, latency-obsessed. E soprattutto, offline-capable.

La possibilità di far girare modelli da 2B o 4B direttamente su dispositivi locali, con input audio nativo e contesto esteso, apre scenari che molti strategist continuano a sottovalutare. Quando l’AI smette di essere una chiamata API e diventa una funzione embedded, cambia tutto. Cambia il modello di business, cambia la sicurezza, cambia la governance dei dati.

Chi controlla il cloud perde una parte del vantaggio. Chi controlla il device lo recupera.

Google questo lo sa da vent’anni.

La vera sorpresa, però, non è l’architettura. È la qualità relativa. Il modello da 31B che si piazza tra i primi tre negli open leaderboard non è un exploit, è una dimostrazione. L’idea che servano modelli da centinaia di miliardi di parametri per competere comincia a incrinarsi. Efficienza batte scala, almeno in certi contesti. Una lezione che l’industria hardware, con i suoi margini sempre più compressi, dovrebbe prendere molto sul serio.

Naturalmente, non tutto è perfetto. Il comportamento “over-reasoning” del modello è quasi ironico. Dopo anni in cui si criticava l’AI per superficialità, ora ci troviamo con sistemi che pensano troppo anche quando non serve. È una forma di overfitting cognitivo, una specie di ansia da prestazione algoritmica. Il modello vuole dimostrare di essere intelligente, anche quando dovrebbe limitarsi a essere utile.

Un problema risolvibile, certo. Ma anche un indizio interessante su come stiamo addestrando queste macchine. Stiamo ottimizzando per impressionare benchmark o per risolvere problemi reali? La differenza, nel lungo periodo, è brutale.

Sul coding, invece, il segnale è chiaro. Output funzionanti al primo tentativo. Zero-shot affidabile. Non è spettacolare, non vincerà premi di design, ma funziona. In un mondo aziendale, questa è la vera killer feature. Nessun CTO serio preferisce codice “elegante” che non gira a codice mediocre che funziona subito. La Silicon Valley ama raccontarsi come una fabbrica di innovazione. Le aziende reali vogliono stabilità operativa.

Gemma 4 sembra aver capito questa distinzione.

Poi c’è la questione licenze, che merita una parentesi quasi filosofica. Negli ultimi anni abbiamo assistito a un curioso fenomeno: aziende che parlano di open source mentre costruiscono recinti legali sempre più sofisticati. Meta con Llama è l’esempio perfetto. Aperto, ma non troppo. Modificabile, ma con condizioni. Distribuibile, ma entro certi limiti.

Una specie di capitalismo open source, che prende il meglio dei due mondi senza accettarne davvero le regole.

Apache 2.0 rompe questa ambiguità. È brutale nella sua semplicità. Usa, modifica, vendi. Fine. Nessuna clausola nascosta, nessuna dipendenza strategica da chi ha creato il modello. Per gli sviluppatori, significa una cosa sola: fiducia. E la fiducia, in ecosistemi complessi, è una valuta più rara del capitale.

Non è un caso che Hugging Face abbia reagito con entusiasmo. La narrativa del “local AI” non è solo hype. È una risposta concreta a problemi reali: costi di inference, latenza, privacy, sovranità dei dati. Tutti temi che diventano improvvisamente urgenti quando l’AI smette di essere un esperimento e diventa infrastruttura critica.

Nel frattempo, OpenAI resta in una posizione curiosa. Leader indiscusso nei modelli proprietari, ma quasi irrilevante nel mondo open. I gpt-oss sono stati un gesto simbolico, più che una strategia competitiva. Una concessione, non un attacco.

Google, con Gemma 4, sta facendo l’opposto. Sta attaccando.

E lo fa in un momento in cui anche startup come Arcee AI iniziano a dimostrare che la barriera all’ingresso non è più così insormontabile. Un modello da 400 miliardi di parametri sviluppato da un team di 30 persone non è solo una curiosità. È un segnale che la curva di democratizzazione si sta accelerando.

Più attori, più modelli, più caos.

Chi vincerà?

La risposta, come sempre, è meno romantica di quanto si pensi. Non vincerà il modello migliore. Non vincerà nemmeno il più aperto. Vincerà chi riuscirà a costruire un ecosistema sostenibile intorno al proprio stack.

Distribuzione, tooling, community, integrazione. Il software, alla fine, è sempre stato questo.

Google ha un vantaggio strutturale enorme qui. Android, Chrome, Cloud. Un’infrastruttura globale già pronta per assorbire e distribuire questi modelli. Se Gemma 4 diventa il default su milioni di dispositivi, la partita cambia radicalmente.

Il rischio, ovviamente, è quello classico di Google: lanciare, entusiasmare, abbandonare. Il cimitero dei prodotti Google è leggendario. Ma questa volta il contesto è diverso. L’AI non è un prodotto. È il prodotto.

E poi c’è una considerazione più ampia, quasi cinica. L’open AI non è una scelta etica. È una strategia competitiva. Quando non puoi dominare il mercato con un approccio proprietario, lo apri. Quando lo domini, lo chiudi.

Google oggi non domina più come prima. Sta reagendo.

La storia della tecnologia è piena di questi cicli. IBM e il PC. Microsoft e Internet. Apple e l’App Store. Ogni volta, il controllo si sposta, si redistribuisce, si ricompone.

Gemma 4 è uno di quei momenti in cui il pendolo cambia direzione.

Non farà notizia come un nuovo chatbot virale. Non genererà meme. Non sostituirà nessun lavoro domani mattina.

Ma cambierà lentamente, inesorabilmente, il modo in cui l’intelligenza artificiale viene costruita, distribuita e monetizzata.

E chi non se ne accorge oggi, probabilmente sarà uno di quelli che tra due anni parlerà di “disruption improvvisa”.

Come sempre.

Blog Google: https://blog.google/innovation-and-ai/technology/developers-tools/gemma-4/