Cento, duecento miliardi. I numeri hanno un curioso potere ipnotico quando diventano così grandi da smettere di sembrare reali. Amazon lo sa bene. Quando ha lasciato filtrare che nel 2026 potrebbero essere stanziati circa 200 miliardi di dollari in spese in conto capitale per data center, chip proprietari, energia e capacità aggiuntiva di AWS destinata all’intelligenza artificiale, il mercato ha avuto una reazione istintiva, quasi primitiva. Prima si è fermato. Poi ha venduto. Le azioni hanno perso circa il 9 per cento in poche ore, trascinando con sé mezzo Nasdaq come una marea che si ritira all’improvviso. Non perché Amazon stia andando male, ma perché improvvisamente il futuro ha iniziato a sembrare molto costoso.

Qui la parola chiave è una sola, ed è capex intelligenza artificiale. Tutto il resto è contorno. Gli investitori non stanno mettendo in discussione la crescita di AWS, che continua a macinare numeri solidi con 35,6 miliardi di dollari di fatturato trimestrale e una crescita del 24 per cento. Non stanno nemmeno contestando l’utile netto, 21,2 miliardi di dollari, che in qualunque altro contesto sarebbe stato accolto con champagne e titoli celebrativi. Il problema è la traiettoria. Spendere oggi come una utility elettrica per incassare domani come una software house è un esercizio di fede che Wall Street pratica solo quando l’orizzonte temporale è corto e le promesse sono estremamente credibili.

Amazon sta chiedendo al mercato di accettare un’idea scomoda. L’intelligenza artificiale non è un plugin. Non è un aggiornamento incrementale. È infrastruttura pesante, energivora, fisica. Richiede edifici, linee elettriche, contratti di fornitura energetica a lungo termine, chip sempre più specializzati e una capacità di pianificazione che assomiglia più a quella di un operatore telefonico degli anni Novanta che a quella di una startup cloud-native. Questa è la vera frattura concettuale che sta spaventando gli investitori. Non il fatto che Amazon spenda, ma il modo in cui è costretta a spendere.

Per anni il software ha vissuto di una narrazione quasi magica. Margini elevati, costi marginali tendenti allo zero, scalabilità teoricamente infinita. L’intelligenza artificiale generativa rompe questo incantesimo. Ogni token ha un costo computazionale. Ogni inferenza consuma energia. Ogni modello più grande richiede hardware più sofisticato e cicli di addestramento sempre più lunghi. In altre parole, ogni unità di crescita porta con sé una fattura molto concreta. Amazon lo ha capito prima di molti altri e sta agendo di conseguenza, ma il mercato non ama essere messo di fronte a verità così poco glamour.

La reazione a catena è stata istruttiva. Non solo Amazon è scesa, ma anche una serie di nomi legati al software e ai servizi digitali. Il timore è che l’intelligenza artificiale non si limiti a potenziare i flussi di lavoro esistenti, ma finisca per sostituirli, comprimendo ricavi che oggi vengono pagati a prezzo pieno. Se un assistente AI può scrivere una bozza, fare una revisione di base o generare codice standard, perché continuare a pagare licenze costose per strumenti che svolgono funzioni sempre più ridondanti. Qui emerge una seconda keyword semantica fondamentale, margini AWS. Perché se i clienti pagano meno a valle, ma i costi infrastrutturali crescono a monte, il modello economico va ripensato da cima a fondo.

Il nervosismo non si è fermato all’azionario. Anche i mercati del credito hanno mostrato segni di stress. Circa 17,7 miliardi di dollari di prestiti tecnologici risultano negoziati a livelli di sofferenza in un indice ampiamente citato. Non è una cifra sistemica, ma è un segnale. Quando il costo del capitale aumenta e l’incertezza sui ritorni si allunga, anche il debito inizia a tremare. L’intelligenza artificiale, che fino a pochi mesi fa era presentata come una macchina per stampare produttività, comincia a sembrare una macchina che brucia cassa, almeno nel breve periodo.

C’è una frase che circola da anni nei corridoi della finanza, attribuita a diversi autori e probabilmente a nessuno in particolare. Ogni boom inizia con investimenti per il futuro e ogni crisi inizia quando il futuro invia una fattura. È una banalità, ma come tutte le banalità funziona perché è vera. Amazon è nel pieno della fase in cui il futuro manda il conto. E non è un conto simbolico. È un conto con molti zeri e una scadenza che non ammette rinvii.

La terza keyword semantica qui è investimenti data center. Perché è nei data center che si gioca la partita reale dell’intelligenza artificiale. Non nei comunicati stampa, non nelle demo, ma nei metri quadrati di cemento, nelle megawattora consumate, nella capacità di raffreddamento e nella supply chain dei semiconduttori. Amazon sta costruendo un vantaggio strutturale che, se tutto andrà secondo i piani, potrebbe essere difficilissimo da colmare. Chi controlla l’infrastruttura controlla l’economia dell’AI. Il problema è che questo vantaggio non si monetizza in un trimestre. Richiede tempo, disciplina e una pazienza che i mercati pubblici hanno progressivamente disimparato.

Dal punto di vista industriale, la mossa di Amazon è quasi obbligata. AWS è il motore di profitto dell’intero gruppo e l’intelligenza artificiale è il suo prossimo ciclo di crescita naturale. Rinviare o ridurre gli investimenti significherebbe lasciare spazio a concorrenti altrettanto affamati e altrettanto capitalizzati. Microsoft, Google e un ecosistema crescente di operatori specializzati non stanno certo a guardare. In questo senso, la spesa di Amazon non è un atto di arroganza, ma di difesa strategica. È il prezzo per restare rilevanti in un mercato che sta rapidamente diventando una guerra di attrito infrastrutturale.

Il problema è la narrazione finanziaria. Per anni Amazon ha educato il mercato a tollerare margini bassi in cambio di crescita futura. Ora chiede di tollerare margini potenzialmente compressi in cambio di una promessa più astratta. L’intelligenza artificiale ridurrà i costi, aumenterà la velocità, automatizzerà attività ripetitive. Tutto vero. Ma nel frattempo costringe le aziende a comportarsi come operatori di servizi pubblici, con investimenti upfront enormi e ritorni diluiti nel tempo, pur continuando a vendere servizi a prezzi che il mercato associa a modelli software ad alto margine. È una tensione strutturale che non si risolve con una slide.

C’è anche un elemento quasi filosofico in questa storia. L’AI viene raccontata come una tecnologia di efficienza, ma la sua prima manifestazione su scala industriale è una gigantesca macchina di spesa. Riduce i costi unitari di alcune attività, ma aumenta in modo esponenziale il costo del sistema nel suo complesso. È un paradosso che molti preferiscono ignorare, ma che Amazon ha messo nero su bianco con quei 200 miliardi ipotizzati. In questo senso, il mercato non sta punendo Amazon per aver sbagliato, ma per aver detto la verità troppo presto.

Se nei prossimi trimestri non emergeranno ricavi chiaramente attribuibili a questa espansione di capacità computazionale, la percezione non cambierà. Gli investitori continueranno a trattare l’intelligenza artificiale come un centro di costo che indossa un costume da crescita, bello da vedere ma poco convincente quando arriva il momento di pagare il conto. Amazon può permettersi questa fase di transizione meglio di chiunque altro, grazie a dimensioni, diversificazione e flussi di cassa robusti. Ma anche Amazon non è immune alla matematica di base.

Alla fine, la domanda non è se l’intelligenza artificiale genererà valore. È quando e per chi. Amazon ha scommesso che il valore arriverà e che sarà concentrato nelle mani di chi ha avuto il coraggio, o l’incoscienza, di investire per primo su scala industriale. Il mercato, per ora, non è convinto. Ma i mercati hanno un problema strutturale con il tempo. Pensano in trimestri. Le infrastrutture pensano in decenni. Ed è in questo scarto temporale che si decide se i 200 miliardi di oggi saranno ricordati come un eccesso o come il prezzo d’ingresso per la prossima era dell’economia digitale.