Il concetto che la OpenAI possa essere sull’orlo del baratro finanziario sembra provocatorio, ma l’analisi lo suggerisce con forza. Immagina una startup gigante che dichiara di avere solo 13 miliardi di entrate ma 1,4 mila miliardi di obbligazioni da affrontare. Ecco: Sam Altman ha reagito furiosamente alla domanda del fondo manager Brad Gerstner su come OpenAI pensasse di coprire queste obbligazioni.

L’intervento di Altman ha avuto toni da CEO in difesa, promettendo una crescita esponenziale della revenue: «Stiamo andando ben oltre quelle entrate… se vuoi vendere le tue azioni…» ha detto. Eppure dietro le quinte si intravede una strategia più sottile: ridurre i costi del finanziamento trasferendo il rischio sul contribuente americano. Il CFO Sarah Friar ha dichiarato durante una conferenza del The Wall Street Journal che le garanzie sui prestiti governativi “scaverebbero” nelle necessità di capitale per infrastrutture AI da un trilione di dollari.

Questo articolo non offrirà la solita conclusione scontata: piuttosto, esplorerà le ragioni per cui parlerei di “bail-out OpenAI” come uno scenario concreto e cosa significa per il mondo tech, per gli investitori, e per i cittadini-tasspayer.

Per prima cosa: perché “bail-out”? Solitamente si parla di salvataggio quando un’azienda è considerata “too big to fail” troppo grande per essere lasciata fallire, perché lo shock travolgerebbe altri sistemi.

Alcuni commentatori vedono proprio questo meccanismo in azione: OpenAI sta proponendo al governo americano di assumere parte del rischio dell’investimento infrastrutturale. Il ragionamento è “costruire data centre, modelli, infrastrutture a livello trillioni di dollari” ma chi presta soldi vuole garanzie e qui entra il contribuente.

Poi: qual è la realtà numerica? Da un lato Altman afferma di avere revenue in forte crescita. Dall’altro lato, gli osservatori segnalano che molte implementazioni generative AI nelle aziende falliscono (una stima: fino all’80–95% dei progetti falliti) e che la domanda reale non decolla quanto promesso. Se la domanda non giustifica i costi, la redditività attesa diventa un miraggio.

Qui si apre lo scenario: se l’azienda non riesce a generare sufficienti flussi di cassa per coprire i propri debiti e obbligazioni infrastrutturali, cosa succede? In un sistema normale fallisce. Ma se è considerata strategica in questo caso “l’intelligenza artificiale come asset nazionale” allora il governo può intervenire. Friar lo sottintende, parlando di competizione con paesi come la Cina. Il rischio per il contribuente è reale: se le garanzie vengono attivate, i cittadini americani potrebbero trovarsi a pagare per un’azienda privata che ha cavalcato hype, investimenti massicci, promesse grandi.

Il concetto è identico a quello della crisi bancaria 2008: troppi debiti, troppo rischio, troppo poco reale sottostante. Qui però non si tratta solo di banche, ma di infrastrutture tecnologiche con costi enormi e ritorni incerti.

Dal punto di vista dell’innovazione digitale è affascinante: se funziona, può aprire la strada a nuove piattaforme di AI, modelli ancora più grandi, ambienti cloud AI “end-to-end”. Questo è il discorso che Altman ha fatto: “ChatGPT crescerà, diventeremo un cloud AI importante, consumer device, automazione della scienza”. Ma qui è dove il tono cambia: se la promessa è altissima, le condizioni per concretizzarla sono straordinariamente difficili.Da CTO e CEO con esperienza di trasformazione digitale, vedo tre nodi critici:

Il costo operativo e di capitale per infrastrutture AI (data centre, GPU, energia, raffreddamento, networking) è enorme. Se i ricavi non scalano, il modello diventa una palla al piede.

La redditività del business AI non è garantita solo dalla promessa tecnologica: servono clienti, applicazioni robuste, modelli efficienti, differenziazione. Se l’hype supera la sostanza, si paga lo scotto.

Il trasferimento del rischio sul contribuente cambia la natura del gioco: non è più solo “fare business” ma “richiedere supporto statale”. E questo genera tensioni politiche, regolamentari, di equità.

Mi sento provocatorio esegetico nel dire: stiamo già assistendo a una richiesta implicita (e forse esplicita) di bailout pubblico per il settore AI, incarnata da OpenAI e questo solleva una domanda fondamentale: dovremmo permettere che le aziende tech più speculative siano salvate con i soldi dei contribuenti, semplicemente perché sono grandi? O dovremmo lasciare che il mercato giudichi con il rischio che qualcosa vada a pezzi?

Un ultimo spunto: se si concretizzasse un sostegno pubblico massiccio alla OpenAI, non sarebbe solo “salvare un’azienda” ma definire un precedente. Altre aziende AI, startup, infrastrutture analoghe chiederebbero lo stesso. Il rischio sistemico diventa: “troppo grande per fallire” genera dipendenza dal contributo statale, distorsioni di mercato, riduzione della concorrenza. Molti su Reddit e hacker-forum già segnalano che “è mai profittevole?” e che la richiesta di garanzie governative è “pre-bailout”.

In conclusione (anche se non amo fare le conclusioni formali): se sei investitore, executive o CTO che guarda al panorama AI, questa vicenda merita attenzione: non soltanto per la tecnologia, ma per il modello finanziario, per la governance e per l’impatto politico. Il “bail-out OpenAI” potrebbe essere la prima grande svolta del capitalismo tecnologico 2.0: grandi promesse, grandi costi, grandi rischi e forse, grande onere per chi non ha scelto di partecipare al tavolo.

First of all. We’re doing well more revenue than that. Second of all, Brad, if you want to sell your shares, I’ll find you a buyer. I just, enough. I think there’s a lot of people who would love to buy OpenAI shares. I think people who talk with a lot of breathless concern about our compute stuff or whatever, that would be thrilled to buy shares. So I think we could sell your shares or anybody else’s to some of the people who are making the most noise on Twitter about this very quickly. We do plan for revenue to grow steeply. Revenue is growing steeply. We are taking a forward bet that it’s going to continue to grow and that not only will ChatGPT keep growing, but we will be able to become one of the important AI clouds, that our consumer device business will be a significant and important thing, that AI that can automate science will create huge value. .. we carefully plan. We understand where the technology, where the capability is going to grow and how the products we can build around that and the revenue we can generate. We might screw it up. This is the bet that we’re making and we’re taking a risk along with that. A certain risk is if we don’t have the compute, we will not be able to generate the revenue or make the models at this kind of scale.”

S. Altman