Non un comunicato ufficiale, non un fallimento tecnico clamoroso, ma co qualcosa di molto più inquietante per i mercati: le dimissioni pubbliche, consecutive e quasi rituali di due co-fondatori (dei 12 originali), Tony Wu e Jimmy Ba, annunciate sulla piattaforma di casa, X. Due post, due giorni, una narrativa che improvvisamente scricchiola. Quando metà dei fondatori se ne va prima della quotazione, non è più gossip da corridoio. È un segnale.
Il parallelismo con L’esercito delle dodici scimmie non è solo una strizzata d’occhio cinefila. È una metafora operativa. Dodici fondatori, sei già usciti di scena. Una struttura che nasce per essere agile, quasi anarchica, e che ora si ritrova compressa tra la necessità di correre più veloce di OpenAI, Google e Anthropic e l’obbligo di apparire affidabile, governabile, presentabile a investitori che non amano le sorprese. Il caos creativo va bene nei pitch. Molto meno nei prospetti informativi di un’IPO.
La tempistica è chirurgica. xAI viene percepita come prossima alla quotazione, o quantomeno in una fase di preparazione avanzata. In questo contesto, la partenza di co-fondatori non è mai neutra. Non importa quanto rassicuranti siano le dichiarazioni ufficiali. I mercati leggono i segnali deboli meglio delle parole forti. E il segnale qui è semplice: qualcosa, internamente, non torna. O almeno non torna abbastanza da convincere chi ha costruito l’azienda a restare fino al grande evento.
Il problema non è solo la perdita di capitale umano. È la perdita di continuità narrativa. I fondatori non sono semplici ingegneri senior. Sono portatori di visione, custodi di decisioni prese quando il prodotto non esisteva ancora e tutto era possibile. Quando se ne vanno in massa, l’azienda diventa più simile a una corporation tradizionale, ma senza averne ancora i processi, la governance e la resilienza. Un limbo pericoloso, soprattutto nel settore dell’intelligenza artificiale, dove la fiducia è una valuta più scarsa del silicio.
Nel frattempo Grok, il prodotto bandiera, continua a rimanere al centro del dibattito pubblico. E non sempre per le ragioni giuste. Le controversie legate ai deepfake sessualizzati non consensuali non sono un dettaglio marginale. Sono un test di maturità. Ogni piattaforma AI oggi viene valutata non solo per ciò che sa fare, ma per ciò che impedisce di fare. Moderazione, responsabilità, governance dei modelli non sono optional etici. Sono prerequisiti commerciali. Nessun grande partner enterprise, nessun regolatore, nessun investitore istituzionale chiude gli occhi davanti a questi temi.
Qui emerge la prima grande contraddizione strategica. xAI vuole muoversi velocemente, mantenere Grok rilevante nel dibattito pubblico, cavalcare l’onda della visibilità continua. Ma la velocità amplifica gli errori. E ogni errore pubblico in questo settore ha un costo reputazionale che si accumula. Non si resetta con un aggiornamento del modello. Non si cancella con un post ironico. Resta. Sedimenta. Viene archiviato mentalmente da chi, domani, dovrà decidere se fidarsi o meno.
Elon Musk ha riconosciuto apertamente una riorganizzazione interna, suddividendo il lavoro in quattro gruppi di prodotto: Grok, Coding, Imagine e Macrohard. Una mossa che, sulla carta, ha senso. Specializzazione, focus, responsabilità chiare. Ma ogni riorganizzazione è anche un’ammissione implicita che la struttura precedente non funzionava più. E quando avviene in concomitanza con l’uscita di fondatori, il messaggio che passa è ambiguo. Si sta costruendo per il futuro o si sta mettendo ordine dopo una fase di crescita troppo rapida.
Il tema della continuità è centrale. Gli ingegneri restano, certo. Ed è vero che in molte aziende tecnologiche il valore operativo risiede nei team più che nei nomi sul sito. Ma questa è una mezza verità. Le decisioni strategiche di lungo periodo, quelle che non si risolvono con una pull request, richiedono una memoria storica profonda. Richiedono persone che sappiano perché certe scelte sono state fatte, non solo come implementarle. La perdita di co-fondatori erode proprio questo strato invisibile ma critico.
xAI continua a vincere. Grok è ovunque. Ogni polemica genera traffico, ogni controversia rafforza l’associazione tra il brand e l’idea di AI senza filtri. Ma il mercato finanziario non ragiona come i social. Non premia l’engagement. Premia la prevedibilità. E qui arriviamo al nodo più delicato. La fiducia del mercato non nasce dall’audacia. Nasce dalla ripetibilità. Un prodotto affidabile, azioni tempestive ma coerenti, una leadership che resta al suo posto abbastanza a lungo da essere giudicata sui risultati e non sulle promesse.
C’è un’ironia sottile in tutto questo. xAI nasce anche come risposta implicita a modelli considerati troppo cauti, troppo ingabbiati da policy e governance. Grok doveva essere la voce fuori dal coro. Ma ora è proprio la mancanza percepita di controllo a diventare un freno. I partner commerciali non chiedono modelli ribelli. Chiedono modelli sicuri. Chiedono accountability. Chiedono di sapere chi risponde quando qualcosa va storto. Se la risposta cambia ogni sei mesi, la conversazione si chiude prima ancora di iniziare.
Il rischio reale non è tecnico. Non è nemmeno normativo, almeno non ancora. È narrativo. Un’azienda che si prepara a un’IPO deve raccontare una storia di stabilità progressiva, non di turbolenza creativa permanente. Le uscite di personale senior, soprattutto se concentrate tra i fondatori, minano questa storia alla radice. E nessuna demo, per quanto impressionante, può compensare la sensazione che il timone cambi mano troppo spesso.
Alla fine, il paradosso è evidente. xAI opera rapidamente, mantiene Grok nel dibattito pubblico, spinge l’innovazione senza chiedere permesso. Ma proprio questa velocità espone crepe che diventano visibili nel momento peggiore possibile. Il mercato non chiede perfezione. Chiede affidabilità. Non chiede silenzio. Chiede coerenza. Se xAI vuole davvero conquistare la fiducia del mercato, dovrà dimostrare che la fase delle dodici scimmie è finita. Che ora esiste una struttura capace di reggere il peso di un’azienda pubblica. Perché l’intelligenza artificiale può anche permettersi di essere imprevedibile. La leadership, no.