Nella Silicon Valley si continua a raccontare la solita favola rassicurante, quella in cui l’innovazione è il prodotto inevitabile di menti brillanti che collaborano per il bene dell’umanità; poi arriva un’inchiesta del The Wall Street Journal e, come spesso accade, la narrazione si incrina mostrando ciò che realmente muove i sistemi complessi: rivalità personali, paranoia strategica e un livello di emotività che farebbe impallidire qualsiasi consiglio di amministrazione europeo. La storia che emerge dal confronto tra Sam Altman e Dario Amodei non è solo un retroscena gustoso; è la lente attraverso cui leggere la competizione più importante del nostro tempo, quella sull’intelligenza artificiale generale, una corsa che ormai somiglia più a una partita a scacchi nucleare che a un hackathon universitario.
L’origine del conflitto, come spesso accade nelle storie che contano davvero, è quasi banale. Un appartamento a San Francisco, anno 2016, un gruppo ristretto di ingegneri convinti di essere sul punto di cambiare il mondo. Dario Amodei entra in OpenAI e diventa rapidamente uno degli architetti dietro GPT-2 e GPT-3, contribuendo a definire il paradigma che oggi domina il mercato. Il problema, inevitabile in organizzazioni ad alta densità di talento e bassa tolleranza all’ego altrui, emerge presto: chi controlla la narrativa controlla il potere, e chi controlla il potere decide il ritmo dello sviluppo. In questo equilibrio instabile, la figura di Greg Brockman si inserisce come catalizzatore di tensioni, mentre Altman consolida una leadership che molti descrivono come visionaria, altri come spietata.
Le divergenze non erano solo tecniche. Si trattava di filosofia del rischio, una variabile che nel mondo dell’AI ha un peso quasi teologico. Quando Brockman avrebbe proposto di vendere accesso all’AGI alle potenze nucleari del Consiglio di Sicurezza dell’ONU, Amodei avrebbe interpretato l’idea come una forma di tradimento. Non è un dettaglio folkloristico. È la rappresentazione plastica di due visioni incompatibili: da un lato l’AI come leva geopolitica da monetizzare e controllare, dall’altro come tecnologia esistenziale da limitare e governare con rigore quasi ascetico. In mezzo, Altman, figura che oscilla tra il costruttore di imperi e il diplomatico pragmatico, capace di negare accuse anche quando queste rimbalzano direttamente nel consiglio di amministrazione.
Il linguaggio privato, spesso più rivelatore delle dichiarazioni ufficiali, racconta una storia ancora più interessante. Paragoni storici estremi, accuse morali, analogie con industrie controverse come il tabacco. Quando un dirigente paragona il proprio ambiente a Big Tobacco, non sta facendo retorica; sta segnalando una percezione di deriva etica che raramente emerge nei comunicati stampa. Il fatto che queste tensioni abbiano portato Amodei a lasciare OpenAI nel 2020, dichiarando di essersi sentito psicologicamente sotto pressione, mentre Altman confidava ai colleghi di odiare il proprio lavoro, suggerisce un livello di frizione che va ben oltre il normale attrito organizzativo.
Da quella frattura nasce Anthropic, una società che si posiziona deliberatamente come alternativa etica e tecnica a OpenAI. Qui la narrazione diventa quasi ironica: la Silicon Valley, che ama definirsi meritocratica e razionale, finisce per replicare dinamiche da corte rinascimentale, con scissioni, alleanze e vendette a lungo termine. Solo che, invece di ducati italiani, in gioco ci sono valutazioni superiori ai 300 miliardi di dollari e contratti con il Pentagono.
Il passaggio dalla dimensione personale a quella geopolitica avviene senza soluzione di continuità. Il recente scontro tra Anthropic e il governo statunitense è emblematico. Quando l’amministrazione Trump ha tentato di classificare la società come rischio per la supply chain, la risposta non è stata una semplice difesa legale; è diventata una battaglia costituzionale. La giudice Rita Lin ha bloccato il provvedimento, sostenendo che punire un’azienda per aver sollevato preoccupazioni pubbliche equivale a una violazione del Primo Emendamento. In altre parole, la libertà di espressione si intreccia direttamente con la governance dell’intelligenza artificiale.
Il nodo centrale della disputa è quasi filosofico nella sua semplicità. Anthropic ha rifiutato di concedere accesso illimitato al proprio modello Claude al Pentagono, tracciando due linee rosse: niente armi autonome e niente sorveglianza di massa domestica. In un’epoca in cui molte aziende tecnologiche si muovono con una flessibilità morale sorprendente quando si tratta di contratti governativi, questa posizione appare quasi anacronistica, o forse strategicamente brillante. La scelta ha avuto conseguenze immediate: aziende come Amazon, Microsoft e Palantir si sono trovate a dover certificare di non utilizzare Claude nei progetti legati al Pentagono, creando un effetto a catena che ha messo in discussione l’intera filiera dell’AI militare.
La decisione del tribunale non risolve il conflitto, ma introduce un precedente pericoloso, o affascinante, a seconda del punto di vista. Se le aziende di AI possono invocare la libertà di espressione per rifiutare richieste governative, il rapporto tra Stato e tecnologia entra in una nuova fase, meno gerarchica e più negoziale. Questo spostamento di potere è coerente con una tendenza più ampia: le big tech non sono più semplici fornitori, ma attori geopolitici a tutti gli effetti.
Nel frattempo, OpenAI continua a muoversi con una strategia diversa, più orientata alla penetrazione di mercato e alla costruzione di ecosistemi. La differenza tra le due aziende non è solo etica; è strutturale. OpenAI opera come una piattaforma globale, con partnership diffuse e una presenza mediatica aggressiva, mentre Anthropic sembra preferire un posizionamento più selettivo, quasi elitario, costruito su principi dichiarati e una certa dose di prudenza calcolata. In termini economici, si potrebbe dire che una punta sulla scala, l’altra sulla qualità del controllo.
Il risultato è una competizione che ricorda le grandi rivalità industriali del passato, da Edison contro Tesla fino a Jobs contro Gates, con una differenza sostanziale: questa volta la posta in gioco non è solo il mercato, ma la definizione stessa di intelligenza e potere. Quando due leader con visioni così divergenti guidano organizzazioni di questa portata, ogni decisione strategica diventa una dichiarazione ideologica.
La dimensione quasi teatrale del conflitto emerge anche nei dettagli più superficiali, come il rifiuto imbarazzato di stringersi la mano durante un summit in India. Potrebbe sembrare un aneddoto irrilevante, ma in realtà riflette una verità più profonda: nel mondo dell’AI, le relazioni personali non sono mai davvero private. Influenzano alleanze, contratti, priorità di ricerca. In un settore in cui la fiducia è una valuta scarsa, ogni gesto conta.
Un osservatore cinico potrebbe sostenere che tutto questo sia inevitabile. L’AI è troppo importante per essere lasciata alla pura razionalità tecnica. Richiede visione, ambizione, e sì, anche una certa dose di ego. Tuttavia, quando le rivalità personali iniziano a modellare decisioni che hanno implicazioni globali, il rischio sistemico aumenta. La storia economica è piena di esempi in cui conflitti tra individui hanno prodotto innovazione straordinaria, ma anche disastri evitabili.
La vera domanda, quindi, non riguarda chi vincerà tra OpenAI e Anthropic. Riguarda il tipo di mondo che emergerà da questa competizione. Un mondo in cui l’intelligenza artificiale è integrata senza soluzione di continuità nelle strutture di potere esistenti, o uno in cui esistono limiti chiari e negoziati, anche a costo di rallentare l’innovazione. La risposta, come spesso accade, non sarà binaria.
Nel frattempo, il mercato osserva, i governi reagiscono e gli utenti, inconsapevolmente, diventano parte di un esperimento su scala globale. La Silicon Valley continuerà a raccontarsi come un laboratorio di progresso, ma sotto la superficie resta una verità meno elegante e più interessante: le tecnologie che definiscono il futuro nascono spesso da conflitti molto umani, imperfetti e, a tratti, sorprendentemente meschini.