Il direttore finanziario di OpenAI, Sarah Friar , ha messo nero su bianco una verità che nel settore si sussurra da tempo ma raramente si dichiara con tanta franchezza: il fatturato cresce allo stesso ritmo del consumo di risorse di calcolo. Tradotto in una lingua meno elegante, ogni salto di ricavi è accompagnato da un balzo nella bolletta energetica. Non è poesia, è fisica industriale applicata all’intelligenza artificiale.

I numeri raccontati da Friar sono chirurgici e volutamente privi di romanticismo. La capacità di calcolo di OpenAI è passata da 0,2 gigawatt nel 2023 a 0,6 nel 2024 fino a 1,9 gigawatt nel 2025. Non megawatt, gigawatt. Valori che fino a pochi anni fa avremmo associato a una centrale elettrica regionale, non a un’azienda software. In parallelo il fatturato annualizzato è triplicato con una simmetria quasi inquietante: 2 miliardi di dollari nel 2023, 6 miliardi nel 2024, oltre 20 miliardi nel 2025. La keyword qui è crescita OpenAI, ma la semantica vera è economia dell’AI, perché siamo davanti a un modello industriale in cui l’energia è la nuova materia prima del software.

C’è una certa ironia nel fatto che l’intelligenza artificiale, venduta per anni come tecnologia dell’immateriale, stia diventando una delle industrie più materialmente energivore del pianeta. Data center che divorano elettricità come acciaierie, chip progettati per spremere ogni joule possibile, contratti con fornitori cloud che assomigliano sempre più ad accordi di fornitura energetica. Chi pensava che il futuro digitale fosse leggero dovrebbe rivedere le proprie metafore. Qui non siamo nel cloud etereo, siamo in una catena di montaggio elettrificata.

Friar non si limita però a fare il resoconto contabile. Introduce quello che definisce la fase successiva. Agenti e automazione del flusso di lavoro che funzionano in modo continuo, mantengono il contesto nel tempo e agiscono su più strumenti. Detto in modo meno evangelico, AI che non risponde più solo a prompt episodici ma che vive dentro i processi. Sistemi che gestiscono progetti, coordinano piani ed eseguono attività per individui e organizzazioni. L’intelligenza artificiale come livello operativo del lavoro di conoscenza. Qui la keyword secondaria diventa agenti AI, e non è un dettaglio semantico ma un cambio di paradigma.

Se l’AI diventa un layer operativo, allora il consumo di calcolo non è più un costo variabile marginale ma una componente strutturale del business. Ogni agente persistente è una macchina che pensa, ricorda, agisce. Sempre accesa. Sempre connessa. Sempre affamata di compute. È qui che il parallelismo tra ricavi e gigawatt smette di essere una coincidenza e diventa una legge economica. Più autonomia dai agli agenti, più elettricità bruciano. Più valore prometti ai clienti, più infrastruttura devi alimentare.

Il tempismo del post di Friar non è casuale. OpenAI è nel pieno di una corsa all’accesso alle risorse di calcolo che ricorda, per intensità, le prime fasi dell’industria petrolifera. Accordi con fornitori cloud, partnership con produttori di chip come Nvidia e Cerebras, intese strategiche con operatori infrastrutturali come Oracle. Non è solo diversificazione dei fornitori, è riduzione del rischio esistenziale. In un mondo in cui il compute è scarso e geopoliticamente sensibile, rimanere senza capacità di calcolo equivale a spegnere la fabbrica.

Qui entra in gioco la terza keyword semantica, infrastruttura cloud, perché il vero vantaggio competitivo non è più solo l’algoritmo ma l’accesso privilegiato a silicio, energia e data center. L’AI moderna è un triangolo fatto di modelli, dati e compute. Puoi avere i migliori ricercatori del mondo, ma se non hai gigawatt disponibili resti un laboratorio, non diventi un colosso industriale. È una lezione che molte startup stanno imparando troppo tardi, inseguendo modelli sempre più grandi senza chiedersi chi pagherà la corrente.

Sul fronte dei ricavi, OpenAI sta esplorando strade che fino a poco tempo fa sarebbero sembrate eretiche. L’idea di integrare forme di pubblicità nei servizi gratuiti o a basso costo, più che una scelta ideologica, è una necessità aritmetica. Quando il costo marginale di ogni interazione include una frazione misurabile di kilowattora, la monetizzazione non è più opzionale. È interessante notare come l’industria stia lentamente riscoprendo modelli di business che il web conosce da vent’anni, adattandoli a un contesto in cui l’utente non guarda una pagina ma dialoga con un sistema che consuma energia a ogni token generato.

C’è anche un messaggio implicito, quasi provocatorio, nel parallelismo tracciato da Friar. Se il fatturato cresce come il compute, allora l’efficienza diventa la variabile strategica chiave. Non basta crescere, bisogna crescere meglio. Ogni miglioramento nell’efficienza dei modelli, ogni riduzione del consumo per inferenza, ogni ottimizzazione hardware si traduce direttamente in margine operativo. È qui che la narrazione sull’AI green smette di essere marketing e diventa interesse economico. Ridurre i watt non è solo una scelta etica, è una leva di profitto.

Il mercato, ovviamente, guarda a questi numeri con una miscela di entusiasmo e inquietudine. Da un lato, ricavi che superano i 20 miliardi di dollari annualizzati collocano OpenAI in una categoria che fino a ieri sembrava riservata a piattaforme mature. Dall’altro, quasi due gigawatt di capacità di calcolo nel 2025 pongono domande serie sulla sostenibilità a lungo termine, non solo ambientale ma anche geopolitica. Chi controlla l’energia controlla l’AI. E chi controlla l’AI controlla una fetta crescente del lavoro cognitivo globale.

C’è una citazione che circola da tempo nei corridoi della Silicon Valley, attribuita a un veterano dell’industria dei semiconduttori: il software mangia il mondo, ma l’hardware mangia il software. I numeri di Friar sembrano confermarlo. L’AI generativa non è una magia che vive nel cloud, è una macchina industriale che consuma risorse reali per produrre valore economico. Più la rendiamo pervasiva, più diventa evidente il suo lato fisico.

In controluce si intravede anche un cambio culturale. Un CFO che parla apertamente di gigawatt è il segnale che l’AI ha superato la fase adolescenziale. Non è più solo ricerca, non è più solo hype. È un’industria pesante, con investimenti infrastrutturali, supply chain complesse e margini che dipendono da fattori che nulla hanno a che vedere con la poesia del codice. Chi guida aziende tecnologiche farebbe bene a prenderne nota, perché il futuro non si giocherà solo sull’addestramento del prossimo modello, ma sulla capacità di alimentarlo senza mandare in corto circuito il bilancio.

Alla fine, il messaggio più potente del post di Friar non è nei numeri, ma nella loro onestà. Mettere in relazione diretta ricavi e consumo energetico significa ammettere che l’intelligenza artificiale non è un miracolo a costo zero. È un compromesso continuo tra valore creato e risorse consumate. E come ogni industria matura, sarà giudicata non solo per ciò che promette, ma per l’efficienza con cui trasforma energia in risultati. In un mondo ossessionato dalla crescita, ricordare che ogni dollaro di AI passa anche da un contatore elettrico è un atto di sano realismo, quasi sovversivo.

ChatGPT can make mistakes. Check i

OpenAI Blog https://openai.com/index/a-business-that-scales-with-the-value-of-intelligence/?utm_campaign=%5BREBRAND%5D+%5BTI-AM%5D+Th&utm_content=1095&utm_medium=email&utm_source=cio&utm_term=124