Ricordi quando Elon Musk decise di far crollare Bitcoin con un tweet pseudo-ecologista? Era il 2021. Disse che Tesla non avrebbe più accettato BTC per motivi ambientali. Tutti da Wall Street ai meme kids — cominciarono a contare i TWh come se fosse il nuovo benchmark ESG. Proof-of-work divenne il male assoluto. Le centrali a carbone cinesi, improvvisamente, furono sulla bocca di ogni influencer cripto. E oggi? Oggi l’AI brucia più watt del Bitcoin, ma nessuno twitta indignato. Silenzio stampa. Letteralmente.

Secondo uno studio peer-reviewed pubblicato su Joule, l’intelligenza artificiale potrebbe arrivare a rappresentare il 49% del consumo energetico globale dei data center entro la fine del 2025. Tradotto: più di tutto il Bitcoin mining messo insieme. E senza l’onestà intellettuale o l’obbligo di rendere pubblici i dati di consumo, come fa il network proof-of-work tramite l’hash rate. La differenza è che Bitcoin è trasparente per design, l’AI per design è opaca. E lo è in modo chirurgicamente intenzionale.

La keyword qui è consumo energetico dell’intelligenza artificiale. Le secondarie? chip Nvidia e emissioni Google Microsoft. E no, non è una battaglia tra nerd. È il nuovo scontro geostrategico per la sovranità computazionale.

Il ricercatore Alex de Vries-Gao, già critico feroce dell’impatto ambientale del mining Bitcoin, ha fatto i conti partendo dalla filiera. Ha tracciato la produzione dei chip di fascia alta, seguendo non i kilowatt nei data center (dove i dati sono occultati da NDA e fogli Excel molto creativi), ma la produzione fisica di TSMC. Se sai quanti chip produce una fab, puoi stimare quanta energia servirà per farli girare in cluster. Una sorta di contabilità molecolare.

Ecco il colpo di scena: Nvidia da sola ha usato fino al 48% della capacità CoWoS (Chip-on-Wafer-on-Substrate) di TSMC nel 2024. Una roba da monopolio mascherato. AMD sta lì a farsi la sua parte di torta, e il resto del mondo — compresi i datacenter minori, le startup AI e le agenzie governative — si accontenta delle briciole.

Solo questi chip, prodotti da Nvidia e AMD, potrebbero alimentare fino a 3.8 GW di potenza. Il totale previsto, secondo il modello conservativo di de Vries-Gao, è di 23 GW entro gennaio 2026, equivalenti a circa 201 TWh/anno. Per chi prende appunti: Bitcoin consuma attualmente circa 176 TWh/anno. Ergo, l’AI ha già vinto la battaglia del dispendio energetico, ma senza lo stigma.

E qui viene il lato cinico — quello che piace a noi CTO stanchi di fingere che la sostenibilità sia al centro del business plan. Tutte le big tech hanno ammesso, tra le righe dei loro report ESG 2024, che le emissioni sono salite e che l’AI è la causa principale. Ma non troverai un solo numero specifico sull’energia destinata a GPT o similari. Google e Microsoft parlano solo di “data center usage”, categoria comodamente omnicomprensiva, un bel “barile tossico” semantico in cui puoi buttare qualunque cosa.

“Power capacity crisis”, scrive Google. Ma senza mai quantificare. Una dichiarazione di panico a metà: abbastanza per attirare investimenti pubblici, troppo vaga per subire cause ambientali.

Nel frattempo, i colossi si preparano alla fase due. OpenAI ha annunciato Stargate, un progetto da 500 miliardi di dollari per costruire un’infrastruttura AI più grande del cloud intero del 2015. Nvidia ha fatto registrare record di ricavi trimestre dopo trimestre. AMD segue a ruota. E i governi? Corrono a scrivere leggi per “accelerare l’adozione dell’intelligenza artificiale”, con incentivi, sandbox e task force. Nessuna task force per le centrali elettriche che serviranno.

Ironico, se pensi che solo 3 anni fa i politici volevano mettere una tassa sul mining proof-of-work. Oggi, invece, finanziano progetti AI con lo stesso impatto carbonico, ma sotto il cappello più sexy dell’”innovazione”.

E c’è un’altra verità scomoda: l’AI è più redditizia del cripto-universo intero. Le prime tre aziende AI hanno una capitalizzazione superiore ai $3.4 trilioni cumulativi del mondo crypto. Se ti stai chiedendo perché nessuno protesta, eccoti la risposta: i soldi fanno dimenticare anche il cambiamento climatico.

È il capitalismo computazionale, bellezza.

La prossima volta che qualcuno ti dice che l’AI è il futuro verde della tecnologia, ricordagli che per costruire quel futuro servono chip che scaldano come reattori e datacenter che drenano energia come intere nazioni. E che mentre l’AI “migliora il mondo”, noi stiamo solo spostando l’impronta ecologica dal virtuale al silicio.

Forse, un giorno, useremo un LLM per giustificare il blackout.

Ma tranquillo, avremo almeno la cortesia di fartelo spiegare da un avatar generato in tempo reale, con rendering fotorealistico e tono empatico. Magari ti dirà: “Stai tranquillo, è colpa tua che hai chiesto troppe domande a ChatGPT.”