C’è un mito che l’industria dell’intelligenza artificiale ama raccontarsi nei corridoi dei campus californiani e nei pitch deck lucidissimi: se hai capitale, compute e una manciata di paper rivoluzionari, il resto è rumore di fondo. Thinking Machines Lab, valutata dodici miliardi di dollari dopo uno dei seed round più opulenti della storia della Silicon Valley, ha appena dimostrato quanto questo mito sia fragile. Dietro l’estetica del laboratorio visionario e la narrativa da “post OpenAI”, si è aperta una crepa molto umana fatta di leadership, fiducia e dinamiche personali. La parola chiave, quella che Google capisce benissimo e che gli investitori fingono di ignorare, è talent war.

La vicenda, riportata da più fonti vicine alla società e agli ex fondatori, ruota attorno allo scontro tra Mira Murati, CEO e volto pubblico di Thinking Machines, e Barret Zoph, cofondatore e responsabile tecnico. Non una divergenza strategica astratta, ma una collisione frontale su performance, governance e controllo della direzione tecnologica. Secondo le ricostruzioni, il confronto è esploso durante una riunione interna particolarmente tesa, in cui Zoph e due colleghi senior avrebbero messo in discussione le scelte dell’azienda e chiesto maggiore autonomia tecnica. In altre parole, il classico momento in cui una startup iper finanziata scopre di non essere più una “ricerca tra amici”, ma un’organizzazione con gerarchie, responsabilità e nervi scoperti.

Pochi giorni dopo, Murati ha licenziato Zoph, motivando la decisione con problemi di condotta e risultati ritenuti insoddisfacenti. Una mossa che nel mondo delle big tech sarebbe archiviata come ordinaria amministrazione, ma che in una startup fondata da sei cofondatori di pari peso assume un significato quasi politico. Zoph, dal canto suo, contesta apertamente la versione ufficiale, sostenendo che il licenziamento sia arrivato solo dopo che l’azienda aveva scoperto la sua intenzione di andarsene. La verità completa probabilmente non emergerà mai, come spesso accade quando governance e ego si intrecciano. Ma il danno reputazionale è già stato fatto.

A rendere la storia più delicata c’è un livello ulteriore, quello delle dinamiche personali. All’interno dell’azienda sarebbero emerse preoccupazioni per una relazione pregressa, non dichiarata, tra Zoph e una collega. Formalmente non esisteva un rapporto di riporto diretto, e non sono state segnalate violazioni esplicite delle policy. Ma in organizzazioni ad alta densità di potere e visibilità, la percezione conta quasi più dei regolamenti. Zoph era stato spostato da un ruolo esecutivo a una posizione da individual contributor, una transizione che il management ha descritto come necessaria, mentre lui l’ha vissuta come una retrocessione punitiva. Qui il lessico cambia a seconda di chi racconta la storia, e non è un dettaglio. È il cuore del problema.

Il colpo di scena, quello che ha trasformato un conflitto interno in un caso emblematico per tutta l’industria, è arrivato subito dopo. Nel giro di poche ore dal licenziamento, Zoph e due colleghi hanno accettato offerte per tornare in OpenAI. Non una fuga improvvisata, ma il completamento di negoziazioni che, secondo indiscrezioni, andavano avanti da settimane. Un altro cofondatore di Thinking Machines aveva già lasciato in precedenza per Meta, riducendo a tre su sei il numero dei fondatori originari ancora in azienda. Quando una startup nata da ex OpenAI inizia a perdere pezzi proprio verso OpenAI e Meta, il segnale è difficile da ignorare.

Qui entra in gioco la seconda keyword semantica, governance nelle startup AI. Thinking Machines aveva raccolto due miliardi di dollari con una valutazione che molti hanno definito visionaria e altri semplicemente euforica. Il capitale non mancava, il pedigree tecnico nemmeno. Quello che evidentemente mancava era una struttura di governo capace di assorbire il dissenso senza implodere. In ambienti di ricerca avanzata, dove il valore individuale dei singoli è enorme e il mercato del lavoro è un’asta permanente, la linea tra leadership forte e leadership fragile è sottile. Basta un errore di gestione, o anche solo una percezione di sfiducia, per innescare un effetto domino.

C’è poi un elemento che i comunicati stampa non amano affrontare, ma che ogni CEO esperto conosce fin troppo bene: la concentrazione del talento. L’intelligenza artificiale di frontiera non soffre di scarsità di GPU quanto di scarsità di persone capaci di guidare team, prendere decisioni tecniche irreversibili e convivere con l’ambiguità. Quando uno di questi nodi si spezza, il capitale umano si muove con una velocità che fa impallidire qualsiasi lock up contrattuale. OpenAI, in questo senso, ha giocato una partita da incumbent spietato e razionale. Ha lasciato che l’instabilità maturasse altrove e poi ha semplicemente riassorbito talento.

Il caso Thinking Machines mette a nudo anche una contraddizione più ampia della narrativa AI contemporanea. Da un lato si parla di modelli sempre più autonomi, agenti intelligenti e sistemi che promettono di ridurre la dipendenza dall’intervento umano. Dall’altro, l’intero settore è ostaggio di dinamiche umanissime, fatte di fiducia, riconoscimento e potere. “People are the ultimate bottleneck” non è una frase da LinkedIn, è una constatazione empirica. E vale ancora di più quando il valore di mercato di un’azienda è costruito sulla reputazione e sulla credibilità dei suoi fondatori.

La prossima ondata di valutazioni non potrà ignorare la resilienza organizzativa. Non basta attrarre i migliori ricercatori, bisogna saperli trattenere quando le cose si complicano. E le cose si complicano sempre, soprattutto quando girano miliardi.

Thinking Machines Lab non è finita, e sarebbe ingenuo scrivere il suo epitaffio ora. Ha ancora risorse, nomi di primo piano e una narrativa potente. Ma l’episodio segna un prima e un dopo. Dimostra che anche i laboratori più celebrati sono vulnerabili quando la cultura interna non regge la pressione esterna. Dimostra che OpenAI, al netto di tutte le critiche, resta un polo gravitazionale difficile da sfidare sul piano umano prima ancora che tecnologico. E dimostra, infine, che l’intelligenza artificiale più difficile da governare non è quella nei modelli, ma quella nelle stanze dei bottoni.

C’è una curiosità che circola tra gli addetti ai lavori, quasi una battuta amara. Si investono miliardi per addestrare sistemi a gestire conflitti, negoziazioni e decisioni complesse, mentre le organizzazioni che li costruiscono inciampano sugli stessi problemi da manuale di management anni Novanta. Forse è questo il paradosso più interessante di tutta la storia. Nel cuore della corsa all’AGI, la variabile decisiva resta la più antica e imprevedibile. L’essere umano.