La notizia ha il sapore di quelle mosse che cambiano il baricentro del potere tecnologico. Mira Murati, l’ex CTO di OpenAI e per un breve ma intenso periodo CEO ad interim nel caos del 2023, ha appena chiuso un round di finanziamento da 2 miliardi di dollari per la sua nuova creatura, Thinking Machines Lab. Andreessen Horowitz – sì, il solito a16z che annusa il sangue fresco dell’innovazione meglio di un hedge fund in crisi di liquidità – ha guidato un’operazione che ha coinvolto Nvidia, AMD, Cisco, ServiceNow e qualche altro nome da collezione per chi gioca a fare il borsista tecnologico con NASDAQ come fossero figurine Panini.
Il messaggio è chiaro: l’ex regina di ChatGPT e Dall-E non è in pensione anticipata, anzi. La frase postata su X ha il tono di chi non chiede permesso per entrare nella stanza: “Stiamo costruendo un’AI multimodale che interagisce come fai tu con il mondo – conversando, guardando, collaborando in quel modo disordinato e umano che è la realtà”. È quasi poesia industriale, un misto di ambizione tecnica e marketing spregiudicato. La ciliegina? Promette un primo prodotto nei prossimi mesi, con “una significativa componente open-source” utile a ricercatori e startup per sviluppare modelli personalizzati. Tradotto per i non addetti: un’infrastruttura da cui potrebbe nascere un nuovo standard per la prossima generazione di intelligenze artificiali.
Per chi pensa che si tratti solo di chiacchiere, basta scorrere i nomi dei cofondatori per capire che qui si gioca una partita pesante. John Schulman, Barrett Zoph, Lilian Weng, Andrew Tulloch, Luke Metz – non sono semplici ex OpenAI, sono i progettisti di ciò che oggi consideriamo il cuore pulsante dell’AI moderna. Gente che ha scritto codice mentre il mondo ancora pensava che il deep learning fosse un vezzo accademico. La stessa Murati, ricordiamolo, è stata la regista di ChatGPT, Dall-E, Codex e Sora. Prima ancora, ha lavorato in Tesla sul Model X, il che significa che il suo curriculum parla di hardware, software e di quella sottile capacità di trasformare ingegneria in storytelling da miliardi.
C’è un dettaglio che gli analisti tradizionali fingono di non vedere: Murati ha strutturato Thinking Machines Lab con un controllo del board che garantisce un potere decisionale più forte di quello che aveva in OpenAI. Non è solo una fondatrice con qualche stock option carina: è la proprietaria con diritto di veto sulle linee strategiche. Questo significa che, se a OpenAI il caos del 2023 è stato causato da un board schizofrenico che giocava a fare il pompiere e l’incendiario contemporaneamente, qui la governance è cucita su misura per evitare colpi di mano.
Il round da 2 miliardi – che piazza Thinking Machines nella rara categoria dei “seed round più ricchi di sempre” – è anche un segnale spietato per il mercato. In un contesto in cui il capitale per l’AI nel 2025 ha già toccato i 162,8 miliardi di dollari nella prima metà dell’anno, con un +76% rispetto al 2024, chi si porta a casa questa fetta dimostra di avere credibilità, contatti e un racconto che seduce investitori come Andreessen Horowitz e Jane Street. Nessuno mette due miliardi su un power point senza qualche certezza tecnica, e il fatto che anche colossi come Nvidia e AMD abbiano messo la firma è un messaggio chiaro a chi si illude che il duopolio hardware per l’AI sia un campo neutro. Non lo è. E loro stanno scegliendo i campioni per il prossimo round della guerra delle GPU.
L’aggettivo “multimodale” è un termine abusato nell’AI, ma quando lo usa Murati ha un peso diverso. Perché se OpenAI ha dimostrato che il linguaggio e le immagini possono convivere nello stesso sistema, qui l’obiettivo sembra essere molto più ambizioso: una piattaforma che comprende il mondo in modo olistico, sporcandosi le mani nel caos della collaborazione umana. “Il modo disordinato con cui interagiamo”, dice. È una frase che in realtà nasconde un attacco diretto alle attuali interfacce AI, ancora troppo pulite, lineari, incapaci di gestire ambiguità e contraddizioni. Se Thinking Machines riesce davvero a creare un’AI che ragiona in quel disordine – e lo fa bene – il mercato dei modelli generalisti cambierà per sempre.
La promessa dell’open-source, poi, è un’altra lama affilata infilata tra le costole di OpenAI e Google. Perché, ammettiamolo, la narrativa open-source è diventata la nuova religione dell’AI, un’arma perfetta per attrarre la comunità accademica e i piccoli sviluppatori che oggi non possono permettersi un cluster da milioni di dollari. Se Murati davvero rilascerà una parte significativa del suo lavoro come open-source, e se quel lavoro sarà davvero utile a costruire modelli personalizzati, avrà messo una mina sotto il castello fortificato delle big tech, costringendole a difendersi in un territorio che loro odiano: la trasparenza.
Ironia della sorte, Thinking Machines Lab si chiama come la storica azienda degli anni ’80 che tentò di costruire supercomputer per l’intelligenza artificiale e fallì clamorosamente. Murati non ignora questo parallelo: in un’intervista ha scherzato sul fatto che “almeno noi abbiamo hardware abbastanza potente questa volta”. Ma il punto non è l’hardware, è la capacità di scalare il software senza scadere nell’ossessione da AGI da salotto che molti competitor stanno vendendo agli investitori come se fosse la prossima corsa allo spazio.
Ecco dove Murati gioca la carta che potrebbe risultare vincente: l’enfasi sull’infrastruttura. “Stiamo costruendo una base solida, affidabile ed efficiente”, ha dichiarato. Non è solo una frase per tranquillizzare i VC: significa che stanno investendo in ricerca infrastrutturale, ossia nella capacità di far girare modelli complessi in modo scalabile e con costi sostenibili. È un dettaglio che pochi apprezzano, ma chiunque abbia gestito cluster di training sa che oggi la vera frontiera non è scrivere l’ennesima architettura di transformer, ma farla funzionare in produzione senza bruciare milioni al giorno in energia e risorse.
Qualcuno dirà che è solo marketing, che i 2 miliardi sono una scommessa speculativa e che la concorrenza – Meta con i suoi LLaMA, Google con Gemini, OpenAI con GPT-5 – è troppo avanti per essere impensierita. Ma lo stesso qualcuno avrebbe detto nel 2022 che OpenAI non avrebbe mai sfidato Google Search, eppure eccoci qui, con ChatGPT usato come alternativa a una query classica e con Microsoft che ci costruisce interi modelli di business sopra.
La vera differenza tra Murati e molti suoi ex colleghi è il controllo del tempo. Sa che l’AI sta vivendo un momento di iperbole finanziaria, ma sa anche che il pubblico e i ricercatori sono già saturi di demo scintillanti che promettono AGI a colazione. Concentrarsi su infrastruttura e open-source è una mossa sottile per costruire fiducia a lungo termine, e nel frattempo incassare l’enorme vantaggio reputazionale che deriva dal fare la “cosa giusta” in un settore percepito come sempre più chiuso e opaco.
Certo, il rischio è enorme. Un prodotto open-source può essere clonato, migliorato e rivenduto da competitor più grandi con risorse quasi infinite. Ma qui entra in gioco il capitale umano: Murati e il suo team hanno un know-how che non si copia da un repository GitHub. E la community scientifica – quella vera, non quella da thread su X – tende a schierarsi con chi pubblica e condivide, non con chi chiude tutto dietro API a pagamento.
I prossimi mesi saranno il vero test. Se davvero Thinking Machines rilascerà il primo prodotto con una componente open-source significativa e un’infrastruttura abbastanza matura da permettere a ricercatori e startup di costruire modelli custom senza impazzire con l’hardware, allora avremo davanti non solo l’ennesima startup miliardaria, ma una piattaforma che potrebbe diventare un nuovo standard. Ed è un’ipotesi che, a giudicare dai due miliardi raccolti, parecchi pesi massimi del settore ritengono tutt’altro che fantascienza.
Nel frattempo, Sam Altman starà leggendo i report degli investitori con lo stesso sguardo di chi vede la sua ex compagna di squadra aprire una filiale concorrente nel palazzo accanto. Non è guerra aperta, non ancora, ma l’odore di sfida è nell’aria. E in questo settore, l’aria si taglia con il silicio.
“We’re building multimodal AI that works with how you naturally interact with the world – through conversation, through sight, through the messy way we collaborate,” Murati said in a post on X today. “We’re excited that in the next couple months we’ll be able to share our first product, which will include a significant open-source component and be useful for researchers and startups developing custom models. Soon, we’ll also share our best science to help the research community better understand frontier AI systems.”