La storia si ripete sempre con una certa ironia crudele. Gli Stati Uniti annunciano due modelli open weight nello stesso ciclo di notizie e invece di celebrare un presunto rinascimento della sovranità tecnologica, l’unica cosa davvero evidente è quanto il terreno si sia spostato sotto i piedi della Silicon Valley. La keyword è modelli open source e attorno a questa orbita tutto il resto, compresi i dibattiti sulla dipendenza da modelli cinesi, la tensione tra trasparenza e velocità, la corsa a recuperare un vantaggio che non è più garantito per diritto divino come ai tempi delle prime GPU Nvidia o dei supercomputer del DOE.

La narrativa è irresistibile quasi quanto un report trimestrale di un unicorno che si scopre improvvisamente profittabile. Deep Cogito cala sul tavolo Cogito v2.1, un modello gigantesco da 671 miliardi di parametri che il fondatore Drishan Arora definisce il miglior LLM open weight sviluppato da un team americano. È un’affermazione audace, certo, ma non è questo il punto che ha fatto alzare il sopracciglio collettivo del settore. Il dettaglio davvero saporito, quasi comico nella sua sincerità, è la rivelazione che la creatura statunitense nasce in realtà da una base cinese. Arora conferma sul suo canale che il modello è un fork del DeepSeek aperto al pubblico nel novembre 2024. È un po’ come presentarsi agli Oscar in smoking impeccabile e ammettere al microfono che lo si è preso in prestito dal guardaroba della concorrenza.

La seconda keyword è sovranità tecnologica e diventa inevitabile quando ci si accorge che i migliori modelli americani aperti traggono origine proprio dai laboratori con cui gli Stati Uniti competono per influenza strategica. Nel frattempo l’Allen Institute for AI decide di suonare una melodia completamente diversa e introduce Olmo 3, una famiglia di modelli che punta tutto sulla trasparenza totale. Dati, codice, ricette, checkpoint intermedi, tutto tracciabile e consultabile. Qui il messaggio è quasi provocatorio: se si vuole veramente riconquistare una leadership nel campo dell’open AI bisogna ricostruire ogni strato a partire dal granito, anche se questo richiede tempi più lunghi e investimenti più pesanti. È un richiamo all’epoca in cui la ricerca americana era un faro, non un follower costretto ad adattarsi alle innovazioni altrui.

Molti analisti fingono di stupirsi nel vedere quanto velocemente i modelli cinesi abbiano conquistato l’adozione globale. La verità è che questa supremazia non è frutto di magia orientale ma di una pianificazione industriale ferrea. DeepSeek, Qwen, Kimi e MiniMax hanno scelto un approccio radicale all’ottimizzazione, creando modelli economici, rapidi e di sorprendente qualità, aggiornati in modo incessante e mantenuti con un pragmatismo quasi militare. Chiunque lavori nell’ambiente sa benissimo che molte startup americane, anche quelle che ostentano indipendenza nelle conferenze stampa, costruiscono i loro sistemi su fondamenta cinesi. È un segreto di Pulcinella che però diventa imbarazzante quando si parla di autonomia strategica o di standard globali.

Alcuni commentatori hanno liquidato la scelta di Deep Cogito come una scorciatoia efficace. Ma c’è un’altra interpretazione, molto meno rassicurante, che serpeggia tra le righe. Se il modello statunitense più impressionante degli ultimi mesi deriva da un progetto cinese, allora forse il cuore dell’innovazione si è già spostato altrove. Forse gli Stati Uniti non stanno guidando la corsa, ma stanno semplicemente truccando la propria auto con pezzi importati. A questo punto l’ironia diventa quasi filosofica. Si parla di autonomia mentre si monta software scritto da chi sta spingendo più forte sull’acceleratore.

Molti paragrafi delle dichiarazioni ufficiali puntano a sottolineare le efficienze ottenute da Cogito v2.1. Il modello produce catene di ragionamento più corte del sessanta per cento rispetto al suo predecessore cinese e mantiene una qualità simile in molti benchmark. La tecnica su cui si basa, l’Iterated Distillation and Amplification, crea una forma di auto apprendistato che migliora l’intuizione della rete in cicli successivi. Non è un concetto nuovo, ma la velocità con cui Deep Cogito è riuscita a implementarlo, appena settantacinque giorni di addestramento su infrastrutture RunPod e Nebius, è notevole. È come vedere un atleta che impara una nuova disciplina in un trimestre e poi gareggia quasi alla pari con i campioni di sempre.

A rendere tutto ancora più interessante c’è la questione dei parametri. In un mondo ossessionato dalla grandezza come metrica di valore, un modello da centinaia di miliardi di parametri è una dichiarazione di potere. Tuttavia la grandezza non basta a compensare l’origine ibrida di questo gigante. Ciò che manca, ed è evidente, non è la capacità di addestrare modelli enormi, ma la volontà o la possibilità di farlo senza appoggiarsi al lavoro dei rivali strategici.

La narrazione cambia completamente quando si osserva Olmo 3. Qui la terza keyword, trasparenza totale, diventa centrale. L’Allen Institute sceglie deliberatamente la strada più difficile e paziente, quasi stoica. Crea un dataset proprietario da 5,9 trilioni di token, rilascia ogni passaggio di addestramento, mette a disposizione codice e pesi. È un gesto che ricorda le grandi imprese scientifiche del passato, quando la conoscenza era considerata un bene pubblico e non un asset da proteggere con un arsenale di avvocati e sistemi di rate limiting. Il risultato è un modello più piccolo di Cogito v2.1 ma costruito interamente su fondamenta americane. È come confrontare un grattacielo prefabbricato con una cattedrale scolpita pietra dopo pietra. Una soluzione non è necessariamente superiore all’altra, ma trasmettono valori completamente diversi.

Un dettaglio poco notato è che Olmo 3 ottiene risultati competitivi pur essendo stato addestrato su meno token rispetto ai suoi rivali diretti. Questo segnala una qualità profonda del dataset e un’ottimizzazione attenta della pipeline. È una scelta che privilegia la robustezza rispetto alla quantità, un’idea che ricorda la filosofia dei vecchi ingegneri del MIT: se puoi farlo bene con meno, allora hai davvero costruito qualcosa che durerà.

La dinamica tra i due approcci racconta più dello stato dell’IA americana di quanto vorrebbero ammettere le dichiarazioni trionfalistiche. Da un lato c’è la corsa ad accorciare le distanze dalla Cina adottando i suoi stessi strumenti. Dall’altro c’è chi tenta di salvare la narrativa dell’indipendenza investendo nella trasparenza radicale. Sono due strategie che si muovono in direzioni opposte ma che rivelano lo stesso problema di fondo. Gli Stati Uniti non hanno ancora deciso che tipo di potenza tecnologica vogliono essere nel mondo dell’IA aperta. Innovatori che costruiscono tutto internamente o integratori che rielaborano ciò che arriva dall’esterno.

La posta in gioco è enorme. I modelli open weight sono la base delle applicazioni future, il nuovo equivalente del silicio negli anni ottanta. Controllarli significa determinare gli standard, influenzare le pipeline, guidare gli ecosistemi che nasceranno. Perdere terreno in questo ambito significa cedere una parte della sovranità tecnologica, non in modo spettacolare come nel caso dei semiconduttori, ma attraverso un lento slittamento verso dipendenze difficili da invertire.

Alcuni investitori americani sembrano essersi accorti della necessità di prendere posizione. Deep Cogito ha assicurato un round da tredici milioni di dollari per spingere verso modelli ancora più grandi. Nvidia sostiene le iniziative dell’Allen Institute per aiutare gli sviluppatori a scalare modelli trasparenti costruiti negli Stati Uniti. È una tensione interna al mercato che somiglia a un referendum non dichiarato sulla direzione futura dell’intelligenza artificiale americana.

Si potrebbe dire che la situazione appare confusa e disordinata, ma sotto la superficie emerge una logica inesorabile. L’America non può continuare a giocare a rimpiattino con la Cina nella speranza che una scorciatoia risolva il problema strutturale. Deve scegliere se correre veloce usando i modelli degli altri o costruire lentamente qualcosa di interamente proprio. La prima opzione offre prestazioni immediate. La seconda offre indipendenza. Il fatto che entrambe le strategie stiano emergendo simultaneamente riflette un settore che non ha ancora trovato il proprio baricentro.

Resta un’ultima curiosità che fa sorridere i veterani del settore. In teoria, chi già utilizza DeepSeek online potrebbe ottenere risposte migliori con Cogito e farlo persino risparmiando, grazie alle sue efficienze. È una promessa allettante per sviluppatori e aziende sempre più sensibili al costo per token. Il paradosso sentito, però, è che per ottenere questi risparmi si finisce per pagare pegno proprio alla tecnologia che si sta cercando di superare.

L’impressione finale è quella di un’industria americana che si muove come un gigante appena svegliato. Da un lato esibisce modelli enormi e tecniche raffinate. Dall’altro inciampa sulla domanda cruciale: da chi stiamo copiando e perché. È un interrogativo che diventerà sempre più urgente mentre la battaglia per l’IA aperta si intensifica e i modelli cinesi continuano a definire standard di efficienza e costo difficili da ignorare. Nel frattempo, tra un fork non dichiarato e una trasparenza radicale, il mondo osserva con divertita perplessità un paese che cerca di riconquistare la leadership in un campo che pensava di possedere per diritto naturale.

Referenze

Deep Cogito — pagina ufficiale che presenta Cogito v2.1 671B: “we fork off the open‑licensed DeepSeek base model from November 2024” Deep Cogito

Hugging Face: dettagli sul modello Cogito v2.1, parametri, licenza MIT, requisiti hardware Hugging Face

Ollama: pagina del modello Cogito‑2.1 con info su licenza, parametri e uso Ollama

Allen Institute for AI — Blog sull’Olmo 3, con spiegazione della famiglia di modelli (7B, 32B; Base, Think, Instruct) e dati di addestramento (Dolma 3, Dolci) allenai.org

Hugging Face — Model card di Olmo 3 32B (AllenAI), con dettagli su training token, contesto, parametri, licenza Apache 2.0 Hugging Face

AllenAI / GitHub — Dolma toolkit e dataset (3 trilioni di token) usato per l’addestramento di Olmo allenai.github.io+1

AllenAI — Blog su Dolma: spiegazione del dataset di pre‑training con composizione e obiettivi allenai.org

AllenAI / Hugging Face — Dataset “Dolma 3 Longmino” (pool per fase di long context) usato in Olmo 3 Hugging Face

Abu Dhabi Magazine — articolo che riassume il lancio di Olmo 3, con riferimenti a Dolma 3, infrastruttura di training (H100) e mix di dati Abu Dhabi Magazine