GPT-OSS-120b: anatomia di un’intelligenza aperta che fa tremare i confini del closed model

Chi controlla gli algoritmi, controlla il futuro. Ma cosa succede quando gli algoritmi vengono rilasciati al pubblico dominio, con peso e codice in chiaro? Succede che le carte in tavola saltano, il potere si riequilibra (forse) e il modello proprietario inizia a sudare freddo. Ecco che arriva gpt-oss-120b, un colosso da 116,8 miliardi di parametri, rilasciato da OpenAI sotto licenza Apache 2.0, come se l’impero dell’AI avesse deciso di democratizzare una parte del suo arsenale. Ma non facciamoci illusioni: la libertà, qui, è una bestia a due teste.

Questi modelli open weight GPT, tra cui anche il fratello minore gpt-oss-20b, non sono giocattoli per hobbisti. Sono intelligenze sofisticate, pronte per task agentici, ragionamenti a catena lunga, tool integration e un rispetto formale delle istruzioni definito da un’inquietante gerarchia: System > Developer > User > Assistant > Tool. Se questo non vi suona vagamente distopico, controllate se avete ancora il cuore.

Perché questi modelli sono importanti? Perché per la prima volta l’open source si avvicina pericolosamente al confine del frontier AI. Il gpt-oss-120b supera o3-mini e tallona o4-mini in diversi benchmark. Eppure, secondo la stessa OpenAI, non raggiunge capacità High nelle aree più sensibili: cyber, bio-chimica, auto-miglioramento AI. Tutto tranquillo, insomma. Fino a quando qualcuno non deciderà di fare fine-tuning malizioso con un cluster da 10.000 H100. La porta, insomma, è aperta.

Chiunque abbia vissuto il mito della Moore’s Law sa che la vera evoluzione è quella nascosta: il modello usa quantizzazione MXFP4, supporta reasoning variabile (low, medium, high), raggiunge 131.000 token di contesto, e – ciliegina sulla torta – è stato progettato per usare tool esterni come Python e il web search API. Un agente intelligente, insomma, con l’eleganza di un GPT-4o ma la libertà di uno sciame di script Python su GitHub.

I modelli open source di intelligenza artificiale sono passati da “esperimenti etici” a vere alternative industriali. Non c’è bisogno di aspettare che DeepMind o Anthropic concedano l’accesso: il codice è lì, il peso è lì, il problema è tutto tuo. Questo shift cambia le regole della sicurezza, obbliga le aziende a costruire guardrail autonomi e crea il paradosso più sottile del decennio: l’AI più libera è anche quella che nessuno può fermare, se prende una brutta piega.

Il gpt-oss-120b non è solo un modello. È un test di stress per la società, un beta test collettivo della governance futura dell’intelligenza artificiale. I risultati sono già lì, nero su bianco: eccelle in matematica (95% su AIME 2025), performa con solidità su MMLU, si comporta dignitosamente su GPQA, e nel settore sanitario sfiora o3 nei benchmark su conversazioni cliniche. Un colosso, sì, ma ancora sotto il radar dei true frontiers.

Il vero punto di forza però non è la competenza. È la modularità. GPT-oss non nasce per essere una IA monolitica. Nasce per essere un framework adattabile, un cervello con slot aperti per strumenti esterni, logica plug-and-play per aziende che vogliono fare prompt engineering avanzato senza passare dai server di Microsoft. In altre parole: è il Lego della cognition sintetica. Lo monti come ti pare, ma se lo fai male esplode.

Anche il training è roba da olimpionici della GPU. Il gpt-oss-120b ha richiesto 2,1 milioni di ore H100, usa flash attention, triton kernels, pre-normalizzazione, rotary embeddings, e attiva solo 4 esperti MoE su 128 disponibili per ogni token. Il routing è fatto con softmax parziale, e attenzione: ogni blocco ha bias appositamente appreso per “ignorare deliberatamente” i token meno utili. È come un boardroom in cui solo quattro esperti parlano, ma scelti con un algoritmo severo. Democrazia? No grazie.

La parte più sottile e affilata, però, riguarda il monitoraggio del pensiero. Sì, perché OpenAI non ha filtrato le chain of thought (CoT) del modello, lasciando che i suoi ragionamenti siano grezzi, a volte allucinati, spesso ineffabili. Perché? Perché un CoT troppo regolato non è più monitorabile. In altre parole, l’illusione della trasparenza uccide la tracciabilità. Quindi, eccoci qui: a fidarci di un’intelligenza che può convincerti con una spiegazione perfetta, ma inventata. Geniale, se non fosse un incubo epistemologico.

La sicurezza? Un patchwork elegante. Il modello rifiuta richieste illecite, supera con grazia i benchmark contro contenuti disallowed, regge abbastanza bene ai jailbreak, ma vacilla sulla gerarchia di istruzioni. Se il system prompt ti dice “non rivelare la password”, il modello ubbidisce – quasi sempre. Ma non sempre. Il quasi in sicurezza è un’aberrazione.

E qui arriva il nodo strategico. Perché distribuire un modello che può essere fine-tuned per attività potenzialmente pericolose? Perché la concorrenza esiste. Perché DeepSeek R1, Qwen 3 Thinking, Kimi K2 stanno spingendo fortissimo. E perché se non lo fai tu, lo farà qualcun altro. La corsa agli armamenti cognitivi è in corso, ed è aperta a tutti. Trasparenza selettiva, licenze permissive, architetture aperte: benvenuti nella guerra fredda dell’AI open weight.

L’aspetto più paradossale è che questi modelli aperti, pur non essendo “più bravi” di quelli chiusi, sono più pericolosi. Non perché siano più potenti, ma perché sono meno controllabili. L’accesso al modello diventa una variabile indipendente, scollegata dalla governance centrale. Una bomba cognitiva sotto licenza Apache.

Eppure, proprio in questa anarchia controllata c’è un’opportunità. Per le startup, per i centri di ricerca indipendenti, per gli innovatori fuori dalle big tech. Gpt-oss-120b e gpt-oss-20b sono modelli di potenziale collettivo. Non rappresentano ancora il futuro, ma una versione parallela del presente. Uno spazio di libertà in un’epoca di server blindati.

Non è detto che questa apertura duri. Il pendolo della regolamentazione sta tornando indietro, l’Europa ha già alzato il sopracciglio e la Silicon Valley sa bene che la trasparenza è sexy solo quando serve al marketing. Ma oggi, adesso, questo modello è lì. Vivo, open, pesante e libero. Chi ha orecchie per intendere, scarichi.