Benvenuti nell’era dell’intelligenza artificiale dove l’unico limite non è l’etica, né la regolamentazione, ma il wattaggio. Se pensavate che il mining di Bitcoin fosse il campione mondiale dell’inutilità energetica su scala industriale, sappiate che c’è un nuovo concorrente affamato in pista: l’AI. Quella che vi risponde, vi suggerisce ricette, vi scrive email e che – ironia suprema – vi consiglia di ridurre la vostra impronta ecologica mentre brucia energia come una Las Vegas digitale.
Secondo un’analisi pubblicata sulla rivista Joule da Alex de Vries-Gao, noto per aver tenuto sotto controllo per anni il disastro energetico delle criptovalute su Digiconomist, l’AI sta rapidamente prendendo il testimone energetico lasciato libero da Ethereum. Quest’ultima, ricordiamolo, è passata a un sistema di validazione che consuma il 99.988% in meno di energia. Un esempio virtuoso, certo. Ma che pare aver ispirato pochi.
De Vries-Gao, armato di pazienza accademica e sarcasmo implicito, ha usato una tecnica che definisce “triangolazione” per stimare il consumo energetico dell’AI. Perché le big tech, ovviamente, non sono molto inclini a dichiarare apertamente quanta energia divorano i loro modelli linguistici e visionari. Troppa vergogna, o forse solo troppo profitto per mettersi a contare i kilowatt.
Quello che emerge è semplice: nel 2023 l’AI avrebbe consumato quanto l’intera Olanda. Entro il 2025, se la traiettoria resta invariata, l’intelligenza artificiale consumerà l’equivalente della domanda elettrica del Regno Unito. Parliamo di 23 gigawatt di fame insaziabile, senza includere gli snack notturni o le maratone di training.
Ecco che si materializza la keyword dominante di questa nuova era: consumo energetico AI. Accanto a lei, come brave comparse semantiche, ci sono sostenibilità dei data center e impatto ambientale dell’intelligenza artificiale. Tutti paroloni ben oliati per infiocchettare i report ESG che nessuno legge davvero, se non per calcolare quanto greenwashing serve per rientrare nella media dell’ipocrisia.
Il nodo centrale è il modello mentale: “più è grande, meglio è”. Le big tech rincorrono l’algoritmo supremo come un graal, gonfiando i parametri dei modelli come culturisti digitali. Solo che, a differenza del bodybuilding, qui i muscoli non si vedono, ma si pagano – in bolletta. L’assioma del deep learning sembra non essere “efficienza prima di tutto” ma “computazione sopra ogni cosa”. Un ritorno alle origini, ma in chiave distopica.
Tanto per aggiungere pepe all’insalata radioattiva, i nuovi data center che sorgono come funghi dopo la pioggia sono spesso alimentati da fonti fossili. In USA, culla dell’iperdataficazione, si stanno progettando nuovi impianti a gas e perfino centrali nucleari per tenere accesi i cervelloni artificiali. La transizione energetica? Un piccolo inciampo ideologico. La priorità è evitare che ChatGPT abbia lag.
Ed è qui che l’AI somiglia sempre di più al Bitcoin: alta intensità energetica, opacità nei dati, enorme impatto ambientale e una comunità di fanatici che urla “è il futuro!” mentre il futuro prende fuoco. Perfetta sincronia tra idolatria tecnologica e miopia strategica.
La chicca arriva dal confronto tra DeepSeek e Meta: il primo vanta un modello AI che consuma solo una frazione dell’energia di Llama 3.1. Ma siamo sicuri che a Menlo Park importi davvero? L’industria corre verso modelli sempre più grandi, non necessariamente più intelligenti. Il paradosso di Jevons, antico quanto l’industria stessa, colpisce ancora: maggiore efficienza porta a maggiore utilizzo. Il risultato? Si consuma comunque di più.
È qui che la trasparenza dovrebbe intervenire. Ma confidare in un tech giant che si auto-denuncia è come aspettarsi che un produttore di armi faccia campagne per il disarmo. I report ESG parlano di emissioni aggregate, difficilmente distinguono il training di un GPT dal rendering di una demo VR. Una nebbia contabile utile a evitare grattacapi agli investitori più sensibili e ai giornalisti ambientalisti.
Serve un benchmark condiviso, un sistema di misurazione indipendente, magari obbligatorio per legge. Ma chi legifera, spesso, ha appena imparato a usare WhatsApp.
La verità è che l’AI, oggi, è l’ennesima tecnologia venduta come “progresso” ma implementata con una fame da predatore. Le sue potenzialità sono immense, certo. Ma anche lo erano quelle della plastica, prima che ce la ritrovassimo negli oceani e nel sangue. La differenza, stavolta, è che non ci sarà bisogno di decenni per vedere gli effetti. Basteranno un paio d’anni, una bolletta impazzita, qualche blackout strategico e una crescita delle emissioni proprio quando il pianeta chiedeva una pausa.
Nel frattempo, aziende come Nvidia e TSMC raddoppiano la produzione di chip per alimentare questo banchetto computazionale. Perché la domanda c’è, i margini anche, e le domande etiche si rimandano a una data futura, tipo “dopo la prossima trimestrale”.
La soluzione, in teoria, esiste: modelli più piccoli, più efficienti, più trasparenti. Ma richiede un cambio di mentalità. Utopia pura, oggi. Come chiedere a un minatore d’oro di buttare via la pala perché il terreno è troppo fragile.
La rivoluzione dell’AI non sarà televisiva, né green. Sarà elettrica, rumorosa, e inquinante. Ma tranquilli: vi suggerirà comunque la ricetta vegana perfetta per sentirvi migliori.