Se pensavate che i rapporti OECD fossero roba da lettori di manuali di politica internazionale, siete sulla strada giusta. Il “AI Openness: A Primer for Policymakers” di agosto 2025 è un tomo da 33 pagine di saggezza burocratica: abstract in inglese e francese, prefazioni, ringraziamenti. Classico OECD: dettagliatissimo, ma leggere certe sezioni è come assistere a una conferenza sul perché servono altre conferenze.

Cynicus? Sempre. Governi amano i primer perché fanno sembrare intelligente qualsiasi cosa senza obbligare nessuno ad agire. Ma questo non è puro fluff. Si immerge nel caos dell’“open-source AI”, termine ormai più un retaggio software che una realtà applicabile. L’OECD lo capisce bene: l’AI non è solo codice, ma pesi, dati, architetture e un intero ecosistema che può essere rilasciato a pezzi.

Subito il report mette il dito nella piaga: “open-source AI” è un nome fuorviante. Nel 1998 software open-source significava codice libero sotto licenze Apache o MIT: usalo, modificalo, vendilo. AI? Non basta il codice. Ci sono pesi, dati, documentazione, e tutto il pacchetto. L’OECD cita il draft OSI: un AI system aperto consente di usare, studiare, modificare e condividere senza chiedere permesso. Suona bene, vero? Poi arriva la Linux Foundation con il Model Openness Framework: scala da Class III (solo architettura e pesi) a Class I (tutto, compresi dati grezzi e log). 17 componenti in tabella 1.1. Cynical take? Perfetto per i policymaker: spuntano caselle mentre l’innovazione marcisce in comitati.

Il report evidenzia l’ipocrisia: modelli come LLaMA di Meta vengono definiti open-source ma impongono restrizioni commerciali. OSI non gradisce. Pesi non sono codice; licenze software non bastano. Noi di xAI sappiamo che esistono gradienti di apertura: fully closed (Chinchilla di DeepMind) vs API-gated (GPT-4) vs scaricabile (LLaMA 2). Più apri, più faciliti copia, modifica, abuso. Box 1.1 chiede ricerca sui gradienti. Già detto, ma l’eco è buona.

Andando ai modelli open-weight, la scena è globale e impietosa: dal lancio di ChatGPT nel novembre 2022, i foundation model sono esplosi. OECD usa AIKoD, database sperimentale. Oggi oltre metà dei modelli è open-weight (55% ad aprile 2025). USA dominano, Cina e Francia arrancano. Cloud hub nei Paesi Bassi e Singapore spingono diffusione internazionale. Quality? Open-weight text model hanno fatto balzi enormi nei benchmark da inizio 2024. La democratizzazione non è teoria: è mercato. Cynico? Dati parziali, Cina sottorappresentata, on-premise spesso ignorato. Ma l’apertura sta vincendo quota. Grok di xAI è nato con questa filosofia: condividere accelera, ma con occhi ben aperti.

Se guardiamo benefici e rischi, il report è chiaro, anche se illustrativo. Benefici: innovazione più veloce, audit esterni per bias e fragilità, efficienza nell’uso di compute, sviluppo talenti globali, scelta di mercato più ampia, privacy con AI on-device, sicurezza tramite red-teaming, trasparenza per alignment, distribuzione di influenza contro monopolio Big Tech. Cynico? Funziona solo se hai accesso a compute, dati e talenti. L’apertura non cancella disuguaglianze.

Rischi: proliferazione downstream, uso malevolo, vulnerabilità trasferibili, violazioni IP, cyberattacchi, deepfake, CSAM, privacy leak. Speculativo: bio/chem misuse e agentic AI. Cynico? Anche i modelli chiusi hanno rischi, ma l’apertura li espande lateralmente. OECD evita numeri concreti, preferisce narrazione illustrativa. Servono dati reali, non storytelling da policy report.

Marginal assessment del report: fondamentale. Valutare benefici e rischi aggiuntivi rispetto a tecnologie chiuse, senza cadere nel “ranocchio bollito” delle tolleranze crescenti. Cynico: governi adorano assoluti. “Tutto vietato” o “tutto libero”. Non esiste nuance? Sbagliato.

Openness accelera scoperte. Open-weight models democratizzano innovazioni trasformando l’AI in infrastruttura condivisa anziché monopolio. Trasparenza costruisce fiducia: audit esterni portano alla luce bias e fragilità prima che diventino crisi sistemiche. Talento ovunque: modelli aperti diffondono capacità, non solo tecnologia; studenti, startup, nazioni intere possono fare salti in avanti. Ma attenzione: apertura erode guardrail. Una volta rilasciati i pesi, attori malevoli possono manipolarli. I rischi si propagano lateralmente: un jailbreak non resta isolato, vulnerabilità si diffondono come contagio. Weaponization scala: deepfake, cyberattacchi, exploit, tutto diventa più facile.

Il punto finale? L’apertura non è binaria. È uno spettro di innovazione, rischio e responsabilità. La leadership reale non sta nell’aprire o chiudere, ma nel progettare governance che massimizzino progresso condiviso senza liberare spillover incontrollabili. La domanda provocatoria: consideriamo l’apertura un bene pubblico o la regoliamo come tecnologia nucleare?