Marco Cristofanilli ci ha mostrato GPT-OSS-120B in azione su AMD MI300X, raggiungendo oltre 800 token al secondo. Un risultato notevole, soprattutto considerando che questo LLM è stato progettato per chip Nvidia. Potete provarlo in questi giorni: Regolo.AI rimane freemium ancora per poco.

La mossa di OpenAI con gpt-oss-120b e licenza Apache 2.0, suona meno come un atto di filantropia tecnologica e più come un colpo di biliardo a tre sponde. Un LLM di quella taglia, con prestazioni che si avvicinano ai top di gamma e con throughput da 800 token/sec su un MI300X, non è stato “liberato” per caso. Soprattutto se fino a ieri la narrativa ufficiale era quella di contenere il rilascio di modelli potenti per ragioni di sicurezza, costi e “alignment”.

Il primo elemento è strategico: è un modo di entrare nel gioco dell’hardware-agnostic AI, dove Nvidia non è più l’unica destinazione naturale per i modelli ad alte prestazioni. Dimostrare che un modello nato e ottimizzato per GPU Nvidia può girare come un treno su AMD MI300X, e lasciarlo libero con una licenza permissiva, è un segnale ai partner industriali e ai governi: “Se volete alternative, noi possiamo fornire gli standard”. Qui non si vende il modello, si vende la possibilità di costruire un ecosistema che non dipenda più da un’unica catena di fornitura.

Il secondo è puramente di mercato: un modello Apache 2.0 crea una trappola a valore inverso per i competitor open source puri. Concedere gratuitamente un modello competitivo costringe gli altri a rincorrere margini sempre più sottili e costi di addestramento sempre più difficili da giustificare. È un classico gioco da piattaforma dominante: abbassi la barriera d’ingresso, ma la soglia di qualità da raggiungere diventa immediatamente molto più alta. Chi ha meno risorse rischia di essere schiacciato dal “free, ma firmato OpenAI”.

Il terzo ha un sapore più sottile: ogni rilascio open source è anche un prelievo massivo di feedback, dati d’uso e ottimizzazioni indirette. Se migliaia di sviluppatori lo usano, i bug vengono trovati e fixati a spese della community. E il ciclo di miglioramento del modello diventa distribuito, accelerando lo sviluppo della prossima generazione proprietaria. Come dire: l’open source è il laboratorio gratuito, il prodotto chiuso è la versione premium.

C’è anche un elemento politico. Con l’onda lunga delle discussioni su AI regulation in Europa, USA e Asia, poter dire “vedete, noi condividiamo e apriamo” è un asset di PR e lobbying non banale. Non si tratta solo di sembrare inclusivi, ma di posizionarsi come attore “responsabile” in grado di guidare le best practice. Un po’ come il vecchio trucco delle big tech con il “trasparency report”: non risolve il problema, ma crea la narrativa che tu sei quello con cui i legislatori devono parlare.

Quello che mi aspetto è che gpt-oss-120b non diventi mai il prodotto di punta di OpenAI. Resterà una vetrina tecnologica, un cavallo di Troia per far girare il brand e le API ovunque, mentre i modelli realmente competitivi in termini di reasoning, capacità multimodale e strumenti restano dietro un paywall o un’API controllata. In questo senso il disegno non è tanto “democratizzare” ma “colonizzare” più velocemente.

Se vogliamo essere cinici, questo rilascio è la versione AI di quelle campagne dove un brand di lusso lancia un prodotto accessibile per catturare nuovi clienti, sapendo che il vero guadagno arriverà quando questi vorranno salire di gamma. Solo che qui, la gamma alta è una GPU farm e un abbonamento enterprise