Altro che “troppo grande per essere open”. OpenAI ha finalmente fatto quello che fino a ieri sembrava impossibile, o almeno politicamente scorretto nel club chiuso delle Big Tech: ha rilasciato GPT-OSS, il suo primo modello open-weight in oltre sei anni. In un’industria in cui si parla di trasparenza con la stessa convinzione con cui si promettono “modelli etici”, ma si rilasciano black box piene di bias, questa è una notizia che pesa. Letteralmente: 120 miliardi di parametri in una variante e 20 nella seconda. E prima che qualcuno si metta a piangere per le risorse, ecco la sorpresa: la versione small gira con 16 GB di RAM, quella big con una sola GPU Nvidia. Addio scuse.

Il rilascio sotto licenza Apache 2.0 non è un gesto simbolico. È un’arma commerciale. Tradotto per chi si occupa davvero di business: puoi modificarlo, adattarlo, rivenderlo, farci girare un’app su AWS o Hugging Face e incassare. Senza dover stringere patti faustiani con licenze ambigue o dover scappare in Lituania con un cluster di LLaMa modificati.
Questa è una mossa che sa di pentimento e calcolo. Sam Altman lo ha detto a gennaio, con l’onestà tipica di chi è sempre un passo avanti: OpenAI è stata “dalla parte sbagliata della storia” nel non aprirsi prima. Lo ha detto osservando DeepSeek e Meta sfilargli l’attenzione della comunità open source, quella vera, fatta di dev che non possono permettersi modelli da milioni al mese. Ora si corregge il tiro, e lo si fa nel modo più spettacolare: offrendo un modello che ragiona, scrive codice, naviga il web, opera agenti e funziona davvero. Non è un giocattolo, è una piattaforma. Una piattaforma scaricabile.
Chi pensava che OpenAI avesse perso il tocco, dovrà ricredersi. La comparazione è chiara: GPT-OSS small è simile a o3-mini, la versione big a o4-mini. Se già questi ti sembrano modelli usabili, ora li puoi avere in casa, modificabili, debuggabili, e liberi da layer opachi di controllo. Il tutto senza rivelare i dati di training, ovviamente. Perché OpenAI continua a giocare la sua partita proteggendo gli asset critici come un hedge fund tecnologico. Il codice è aperto, l’algoritmo è tuo, ma il dataset resta un segreto di Stato. E funziona.
Sul fronte sicurezza, si dice che sia il modello più testato finora. Collaborazioni con team esterni, valutazioni in scenari ad alto rischio, attenzione a biohazard e attacchi informatici. Tutto molto bello. Ma il dettaglio più interessante è il tracciamento del chain-of-thought, il processo logico dietro le risposte. Una feature che non serve solo a capire come pensa il modello, ma a prevenire quando decide di disobbedire. È la versione AI del concetto di “dissuasione trasparente”: se so che mi stai guardando, evito di fregarti. L’idea è chiara: lasciare visibile il pensiero per evitare inganni, deliri o deviazioni. Più Minority Report che Open Source, ma efficace.
Chris Cook di OpenAI lo dice chiaramente: “La maggior parte dei nostri clienti già usa modelli open”. Ecco spiegata la mossa. I developer vogliono controllo. Le aziende vogliono flessibilità. E OpenAI vuole riconquistare il centro del palcoscenico, anche per chi non ha 100 milioni da investire in API. Il modello, già disponibile su Hugging Face, Azure, Databricks e AWS, mira a soddisfare chi sogna una AI cucita su misura. Niente più sandbox, niente più interfacce limitate. Vuoi eseguire GPT-OSS su un Raspberry impazzito o trasformarlo in uno psicoterapeuta medievale? Fallo. È legale. Ed è brillante.
Greg Brockman, sempre pronto alla frase ad effetto, ha detto: “The team really cooked with this one”. Cucinato, sì. Ma non a fuoco lento. Qui si è trattato di una frittura creativa in olio bollente, fatta per servire una vendetta fredda contro chi pensava che OpenAI fosse diventata l’ennesimo gatekeeper. Invece, ecco il colpo di teatro: un ritorno alle origini hacker, condito di muscle marketing.
Non ci sono benchmark ufficiali che confrontino GPT-OSS con LLaMa 3, DeepSeek o Gemma. E qui viene il gioco psicologico. Nessuna tabella comparativa, solo una dichiarazione: le performance sono comparabili ai modelli chiusi di OpenAI su task come la scrittura di codice e i test di ragionamento, tipo Humanity’s Last Exam. Il messaggio subliminale? Puoi smettere di cercare altrove: tutto ciò che ti serve è già qui. E sì, puoi modificarlo quanto vuoi. Tanto, chi controllerà se hai addestrato GPT-OSS a diventare un dungeon master sadico o un avvocato per la tua startup?
Il vero colpo di genio è la gestione narrativa del rilascio. Altman e soci non lo spacciano come un gesto altruistico. Non è una lettera d’amore all’open source. È una correzione di traiettoria commerciale, lucida e brutale. La realpolitik dell’AI in versione moderna: se non puoi batterli, apri il modello e falli entrare nel tuo ecosistema. I competitor diventano contributor. Gli hacker diventano utenti. Le startup diventano partner. Tutti dentro, tutti allineati.
Il punto, oggi, non è più avere il modello più potente. È avere il modello più utile, adattabile, estendibile. Ed è qui che GPT-OSS cambia le carte in tavola. Perché mentre LLaMa 3 resta sotto licenza restrittiva, Gemma è ancora acerba e DeepSeek gioca da outsider, OpenAI si prende il centro della scena. Lo fa con uno schiaffo aperto a chi pensava che la trasparenza fosse un rischio. Con un modello che puoi clonare, modificare, integrare con i tuoi dati. E tutto questo con il backing di una delle aziende AI più potenti al mondo. Non è solo un rilascio open. È una trasfusione di potere computazionale nelle mani di chi ha le idee, ma non le GPU.
OpenAI non ha promesso aggiornamenti regolari di GPT-OSS. Niente roadmap, niente iterazioni annunciate. Ma la provocazione è chiara: ecco gli strumenti, adesso tocca a voi fare innovazione. La logica è quella del kit da guerra: ti do la spada, usala come vuoi. Se combatti bene, magari ti do anche l’armatura nella prossima release. È una scommessa sulla creatività distribuita. E se c’è una cosa che la storia della tecnologia ci insegna è questa: quando si abbassa la soglia d’ingresso, la curva dell’innovazione diventa verticale.
GPT-OSS non è solo un modello. È un manifesto. Un messaggio cifrato a chi ancora crede che l’intelligenza artificiale sia roba per pochi. A chi pensa che controllare significhi innovare. A chi confonde sicurezza con censura. È il momento in cui OpenAI torna a fare quello per cui era nata: aprire, non chiudere. Dare forma a una nuova generazione di tool che non vivono solo nei datacenter di Azure, ma anche nei laptop dei maker, nei server delle PMI, nei laboratori di ricerca indipendenti.
Alla fine, come sempre, vincerà chi saprà usare questi strumenti con più visione e meno paura. Chi capisce che l’open non è solo una licenza, ma un mindset. E chi ha il coraggio di cucinare, come dice Brockman, qualcosa di nuovo. Sul serio.

Microsoft non ha perso tempo: lo ha subito integrato in Windows AI Foundry, rendendolo disponibile per il download e l’esecuzione in locale su PC con almeno 16GB di VRAM. Si tratta del primo modello di OpenAI che può essere eseguito direttamente su Windows, senza passare dal cloud. Ottimizzato per l’esecuzione di codice e l’integrazione in flussi di lavoro reali, è ideale per costruire assistenti autonomi o implementazioni AI in ambienti con connettività limitata.
Microsoft ha preconfigurato il modello per un’inferenza locale efficiente e promette un futuro supporto per dispositivi aggiuntivi, inclusi probabilmente i Copilot+ PC, cavalcando la recente ondata di modelli AI integrati nativamente in Windows. In parallelo, anche Amazon ha adottato rapidamente la nuova serie di modelli GPT-OSS per la sua infrastruttura cloud, segnando un momento curioso nella partnership OpenAI-Microsoft: ora anche il principale concorrente cloud di Microsoft ha accesso diretto ai modelli di punta di OpenAI.
Una mossa che trasforma radicalmente lo scenario: l’open-source non è più una minaccia per i giganti, ma una leva competitiva.
🔹 Hugging Face: https://huggingface.co/openai