Una cifra che dovrebbe far drizzare le antenne anche al più anestetizzato dei venture capitalist. Mille e quattrocento miliardi di dollari. Non una valutazione teorica, non un multiplo creativo, ma un impegno infrastrutturale dichiarato nel 2025 per costruire la spina dorsale fisica dell’intelligenza artificiale globale. OpenAI non sta più giocando a fare il laboratorio visionario. Sta costruendo autostrade, centrali elettriche, data center che sembrano raffinerie e catene di approvvigionamento degne della rivoluzione industriale. Il tutto con una velocità che a Silicon Valley suona come una virtù cardinale. Move fast. Break things. Poi si vedrà.
OpenAI è diventata in tre anni quello che altre aziende tecnologiche hanno impiegato decenni a diventare. ChatGPT ha catapultato la società a una valutazione che oscilla intorno ai cinquecento miliardi di dollari, un numero che fino a ieri apparteneva solo a conglomerati con fabbriche, brevetti e flotte logistiche. Qui invece parliamo di modelli, GPU, energia e soprattutto aspettative. Il mercato non sta scommettendo solo su un prodotto, ma sull’idea che OpenAI possa diventare l’infrastruttura cognitiva del pianeta. Una utility dell’intelligenza, con margini da software e costi da industria pesante.
Il problema non è l’ambizione. L’ambizione è quasi rassicurante. Il problema è il metodo. La storia recente della tecnologia è piena di aziende che hanno confuso la velocità con la strategia e la scala con la sostenibilità. Uber è il caso di scuola. Non perché fosse cattiva tecnologia, ma perché era una tecnologia che si è rifiutata di riconoscere di far parte di un sistema complesso. Regolazioni, città, lavoro, trasporti pubblici, equilibri sociali. Tutto trattato come attrito. Tutto da schiacciare sotto il mantra della crescita.
OpenAI oggi rischia una tentazione simile, solo su scala infinitamente più grande. L’intelligenza artificiale non è un’app di ride hailing. È un moltiplicatore sistemico. Ogni punto percentuale di adozione non si limita a spostare quote di mercato, ma ristruttura interi settori. Lavoro cognitivo, creatività, istruzione, informazione, sicurezza. Quando si investono mille miliardi in infrastruttura AI non si sta semplicemente ottimizzando un business model. Si sta riscrivendo il metabolismo di una società.
Il parallelo con Uber diventa inquietante quando si guarda alla dinamica iniziale. Uber cresceva perché funzionava. Era più efficiente, più economica, più comoda. Ignorare regolatori e sindacati sembrava quasi una necessità darwiniana. Ogni città conquistata era una vittoria morale prima ancora che economica. Solo dopo, quando il traffico aumentava, il trasporto pubblico veniva indebolito e le cause legali si accumulavano, è emerso il conto reale di quella crescita. Un conto pagato in reputazione, in conflitti strutturali e in un cambio di strategia tardivo e costoso.
OpenAI oggi gode dello stesso privilegio dell’innovazione che funziona troppo bene. I modelli aumentano di capacità, le applicazioni si moltiplicano, le aziende integrano l’AI ovunque. La narrativa dominante racconta un progresso inevitabile, quasi naturale. Ma sotto la superficie si accumulano segnali che non sono rumore di fondo. Consumo energetico fuori scala, concentrazione di potere computazionale, dipendenza da pochi attori, precarizzazione di intere professioni cognitive, accelerazione della disinformazione automatizzata. Non sono effetti collaterali. Sono effetti strutturali.
L’errore classico è trattare questi segnali come problemi di comunicazione o di policy da affrontare più avanti. Uber lo ha fatto. Per anni ha considerato le regole come un residuo del passato e i tassisti come un’anomalia destinata a scomparire. OpenAI rischia di considerare governi, educatori, creativi e lavoratori della conoscenza come stakeholder secondari, utili per le conferenze ma irrilevanti per le decisioni infrastrutturali. È una visione miope, perché l’AI non vive nel vuoto. Vive dentro sistemi umani che reagiscono, spesso in modo non lineare.
La differenza cruciale è che l’intelligenza artificiale non si limita a entrare in un settore. Li attraversa tutti contemporaneamente. Un modello generativo ben addestrato non sostituisce solo un copywriter o un programmatore junior. Cambia il modo in cui le aziende assumono, il modo in cui le università insegnano, il modo in cui le informazioni circolano e vengono verificate. Quando questa trasformazione viene spinta da investimenti colossali senza una governance altrettanto robusta, il rischio non è solo regolatorio. È sistemico.
Il concetto di systems thinking, tanto caro agli ingegneri ma spesso ignorato dai board, qui diventa centrale. Ogni grande sistema ha punti di rottura nascosti. Uber li ha scoperti quando le città hanno iniziato a ribellarsi e quando i tribunali hanno smontato il mito del lavoratore indipendente. OpenAI potrebbe scoprirli quando l’opinione pubblica collegherà l’AI all’aumento dei costi energetici, alla perdita di posti di lavoro qualificati o alla crisi di fiducia nell’informazione. A quel punto la velocità non sarà più un vantaggio. Sarà un moltiplicatore di danni.
C’è anche una questione di narrativa. Uber per anni ha raccontato una storia di empowerment individuale che non reggeva alla prova dei fatti. OpenAI oggi racconta una storia di intelligenza aumentata e di democratizzazione del sapere. È una storia potente, ma fragile se non supportata da meccanismi reali di distribuzione del valore. Chi controlla l’infrastruttura controlla le rendite. Chi possiede i modelli decide le regole implicite del discorso pubblico. Non basta promettere benefici diffusi se la struttura economica resta fortemente centralizzata.
Dal punto di vista strettamente industriale, l’approccio uniforme alla scala è un altro campanello d’allarme. Uber ha imparato a sue spese che le città non sono tutte uguali. Normative, cultura, mobilità, aspettative sociali variano enormemente. L’AI segue la stessa logica, solo amplificata. Implementare modelli identici in contesti educativi, linguistici e normativi diversi non è efficienza. È miopia strategica. L’adattamento locale non è un freno alla crescita. È una forma di assicurazione contro shock futuri.
I difensori dell’approccio aggressivo diranno che il tempo è tutto. Che se OpenAI non costruisce ora, lo farà qualcun altro. È vero. Ma è anche vero che Uber non è mai stata realmente minacciata da un concorrente più veloce. È stata rallentata dal sistema che aveva ignorato. Le regole, quando arrivano, non lo fanno gradualmente. Arrivano come reazioni a catena. E più grande è l’attore, più violenta è la correzione.
Il punto non è fermare l’innovazione. Sarebbe ingenuo e controproducente. Il punto è riconoscere che l’AI è già oltre la fase sperimentale. È infrastruttura critica. E le infrastrutture critiche richiedono una disciplina diversa. Richiedono trasparenza, coinvolgimento degli stakeholder, capacità di correggere rotta prima che la crisi esploda. Richiedono una leadership che sappia rallentare in modo selettivo per evitare frenate di emergenza più avanti.
OpenAI ha ancora un vantaggio enorme. Può osservare il passato recente e imparare senza pagare lo stesso prezzo. Può scegliere di non trattare l’attrito come un nemico, ma come un segnale. Può integrare la governance nel design, invece di appiccicarla dopo come un cerotto regolatorio. La vera leadership nell’era dell’intelligenza artificiale non si misurerà in parametri o in megawatt installati, ma nella capacità di costruire sistemi che reggano nel tempo.
Uber oggi è ancora lì, più sobria, più regolata, meno mitologica. Ha imparato che la crescita cieca ha un costo. OpenAI è davanti allo stesso bivio, solo con una posta in gioco immensamente più alta. Mille miliardi non comprano l’immunità dagli errori strutturali. Comprano solo il privilegio di farli più in grande. E la storia della tecnologia ci insegna che quando gli errori sono sistemici, la fattura arriva sempre. Anche per i più intelligenti.